Imagen de Simon Steinberger en Pixabay

GeeksTerra, 31 de octubre.- Google anunció la aplicación de un código de Representación para codificación bidireccional para transformadores, mejor conocido como BERT trabajando conjuntamente con Unidades de Procesamiento Tensorial (TPU), para que las búsquedas de los usuarios se acerquen más al lenguaje natural.

Uno de los problemas a los que se han enfrentado los equipos de trabajo que laboran con mejorar la experiencia de búsqueda se encuentra en los algoritmos con los cuales se inicia la decodificación de lo que el usuario necesita realmente, un algoritmo no comprende al lenguaje natural, ya que éste no es preciso en todas las ocasiones y el anterior necesita precisión matemática para funcionar.


El carácter equívoco del lenguaje se puede apreciar entre los hablantes hispanos cuando pensamos en el número de significados que suelen poseer términos como “mano“, “pon” o “para“, por lo que los algoritmos con los que funcionan buscadores como el de Google deben trabajar con palabras clave.

Muchos usuarios ya nos hemos acostumbrado al uso de palabras clave para buscar lo que necesitamos, lo real es que al escribir o plantear una pregunta en el buscador de Google, no estamos usando el lenguaje que solemos emplear en una conversación, es decir, no usamos el lenguaje natural.

Aunque BERT ya se había estado probando desde hace unos años, hacer que éste codificador funcione en idiomas como el español no es sencillo, para ello ha sido necesario entrenar este tipo de modelos en la comprensión del contexto en el que se desarrolla una búsqueda.

Ese entrenamiento se logró mediante la implementación de TPUs, con los que se aceleran las cargas de trabajo de aprendizaje automático, es decir, con lo que se consigue una mayor comprensión del contexto en el que se inscribe una palabra clave.

Algunos de los modelos que podemos construir con BERT son tan complejos que superan los límites de lo que podemos hacer con el hardware tradicional, por lo que, por primera vez, utilizamos los TPUs en la nube más recientes para ofrecer resultados de búsqueda y obtener información más relevante rápidamente,” indicó el Google Fellow y vicepresidente de Búsqueda de Google, Pandu Nayak.

La conjunción del lenguaje natural con el lenguaje matemático no es sencilla, hay que recordar que a más facilidades para el usuario mayor será el trabajo para el programador, pero el uso de modelos como BERT, que son capaces de conjuntar las semejanzas entre ciertos idiomas para aplicar lo aprendido en otros, permite acercar a los usuarios a búsquedas más naturales.

Al conseguir búsquedas más próximas al lenguaje natural en la red, y asociadas a un contexto en específico no sólo se ahorra tiempo a los usuarios que necesitan determinada información, también se tiene una mayor certeza de que aquellos que no son tan precisos al buscar, como los niños por ejemplo, podrán encontrar lo que realmente quieren.

Fuente: Google

Maigo Gómez
Licenciada en Filosofía con experiencia en la generación de contenido WEB desde hace 10 años.Además, se ha desempeñado como docente y guionista en varios proyectos creativos.Actualmente analiza los efectos de la tecnología y la digitalización de la vida cotidiana.Se une a GeeksTerra con una visión crítica y sobre el desarrollo tecnológico.
Suscríbete
Notificar a
guest
0 ComentarioS
Comentarios en línea
Ver todos los comentarios