En qué fallan los chatbots cuando tienen que responder preguntas sobre un catálogo de productos
Por qué un chatbot falla al responder sobre catálogos de productos aunque use embeddings y RAG, y qué arquitectura híbrida mejora cobertura, filtros y precisión.
Responder sobre un catálogo no es lo mismo que responder
sobre documentos
Muchos chatbots responden razonablemente bien cuando
trabajan sobre FAQs, manuales o contenido editorial. Pero
cuando la pregunta del usuario exige navegar un catálogo de
productos, comparar atributos, filtrar opciones o asegurar
cobertura completa, el problema cambia por completo. Ya no
basta con recuperar contexto parecido: hay que decidir si la
respuesta necesita revisar un conjunto estructurado de datos
y no solo los fragmentos “más cercanos”.
Ahí empiezan las frustraciones típicas: el bot omite
productos relevantes, responde con una opción parcial,
mezcla atributos de referencias distintas o parece
“inventar” una comparación porque solo vio una fracción del
catálogo real.
Por qué falla incluso cuando hay embeddings y base vectorial
En un flujo RAG clásico, los embeddings convierten texto en
vectores y una base vectorial recupera los chunks más
parecidos a la consulta. Eso funciona bien para traer
contexto semántico, pero no garantiza cobertura total ni
exactitud estructurada. Si la pregunta requiere evaluar todo
el catálogo, comparar modelos o aplicar filtros sobre
atributos, la recuperación semántica por sí sola se queda
corta.
La recuperación puede traer solo una parte del catálogo
relevante y dejar fuera otras opciones válidas.
Los chunks mejor rankeados no necesariamente contienen
la visión completa para una comparación seria.
Una pregunta como “cuáles sirven para X y además tienen
Y” suele requerir filtros estructurados, no solo
similitud semántica.
El chunking puede separar atributos que deberían
evaluarse juntos, como precio, compatibilidad, talla o
disponibilidad.
Si el catálogo cambia seguido, el índice vectorial puede
quedar desalineado respecto del dato operativo actual.
Qué arquitectura suele responder mejor
Usar embeddings para intención, no como única fuente
de verdad
Los embeddings son valiosos para entender la
consulta, rescatar lenguaje equivalente y encontrar
zonas relevantes del conocimiento. Pero cuando la
pregunta depende de atributos objetivos, conviene
consultar además una fuente estructurada del
catálogo.
Separar preguntas exploratorias de preguntas
exhaustivas
“Cuéntame sobre esta categoría” no exige la misma
lógica que “muéstrame todos los productos con estas
condiciones”. El sistema debe distinguir cuándo
basta con RAG y cuándo necesita recorrer el conjunto
completo.
Combinar búsqueda semántica con filtros y reglas
Una arquitectura híbrida puede usar recuperación
vectorial para contextualizar y luego aplicar
filtros sobre atributos como marca, uso, rango de
precio, compatibilidad o stock. Esa mezcla suele dar
respuestas más confiables.
Diseñar fallback y transparencia
Si el sistema no puede asegurar cobertura o detecta
información incompleta, conviene que lo diga,
ofrezca derivación o pida un criterio adicional. Eso
genera más confianza que una respuesta cerrada pero
incompleta.
La idea central
Los embeddings son una pieza muy potente, pero no bastan por
sí solos para responder bien sobre productos. Cuando una
consulta exige cobertura, comparación o precisión
estructurada, la solución suele ser híbrida: intención
semántica por un lado y datos de catálogo bien consultados
por otro.
¿Quieres conocer y probar Clarabot con un enfoque más sólido para catálogos?
Revisa cómo funciona Clarabot y agenda una prueba para ver cómo combina contexto semántico y catálogo completo al responder sobre productos.