Google Cloud ha anunciado nuevos modelos de incrustación de texto en Vertex AI, "text-embedding-004" y "text-multilingual-embedding-002", que pueden generar incrustaciones optimizadas basadas en "tipos de tareas". Este es un avance significativo para las aplicaciones de generación aumentada por recuperación (RAG).
La búsqueda tradicional de similitud semántica a menudo no ofrece resultados precisos en RAG porque las preguntas y las respuestas son inherentemente diferentes. Por ejemplo, "¿Por qué el cielo es azul?" y su respuesta, "La dispersión de la luz solar provoca el color azul", tienen significados distintos.
Los "tipos de tareas" salvan esta distancia al permitir que los modelos comprendan la relación entre una consulta y su respuesta. Al especificar "QUESTION_ANSWERING" para los textos de consulta y "RETRIEVAL_DOCUMENT" para los textos de respuesta, los modelos pueden colocar incrustaciones más cerca unas de otras en el espacio de incrustación, lo que lleva a resultados de búsqueda más precisos.
Estos nuevos modelos aprovechan la "destilación de LLM", donde un modelo más pequeño se entrena a partir de un modelo de lenguaje grande (LLM). Esto permite que los modelos de incrustación hereden algunas de las capacidades de razonamiento de los LLM, mejorando la calidad de la búsqueda al tiempo que se reduce la latencia y el coste.
En conclusión, los "tipos de tareas" en Vertex AI Embeddings son un paso significativo hacia la mejora de la precisión y la eficiencia de los sistemas RAG. Al simplificar la búsqueda semántica, esta función permite a los desarrolladores crear aplicaciones más inteligentes y conscientes del lenguaje.