La actualización de Google BERT ahora está en marcha y es
el mayor avance en la historia de la Búsqueda
en los últimos 5 años y se caracteriza por ser un paso masivo.
el mayor avance en la historia de la Búsqueda
en los últimos 5 años y se caracteriza por ser un paso masivo.
| www.GustavoGuardadoRoa.com |
Costa Rica (506) 8322-2771 - seoanddesign @ gmail.com
La semana pasada, Google hizo olas con su anuncio de supremacía cuántica: la afirmación de que han desarrollado una computadora cuántica que se ha demostrado que resuelve, en cuestión de días, un problema que una supercomputadora "clásica" probablemente tomaría miles de años. resolver. En otros lugares, abundan las historias sobre robots que toman nuestros trabajos, mientras que el aprendizaje automático parece estar en la mente de todos.
Pero el cambio no siempre es llamativo o incluso visible. La semana pasada, Google introdujo una nueva actualización llamada BERT, que se caracteriza por ser un gran y masivo paso adelante para la búsqueda en los últimos 5 años, así como uno de los mayores pasos adelante en la historia de la búsqueda. Sin embargo, mire y pregunte en la comunidad de SEO y verá muy poco que anuncie tanto. Además, aún no está muy claro a qué se dirige el BERT de Google y cómo se verá influenciada el panorama SEO por esta gran actualización. Entonces, ¡resolvamos todo!
- - ¿Qué es la actualización BERT de Google?
- - ¿Qué es la orientación BERT de Google?
- - ¿Google BERT afecta el SEO?
- - ¿Google BERT afecta el marketing de contenidos?
Los androides sueñan con ovejas eléctricas? Es el título de una novela del visionario escritor de ciencia ficción Philip K. Dick. Si no suena familiar, es mejor que lo reconozca bajo el título de adaptación de su película, Blade Runner. Tanto el libro como la película se preocupan por las preguntas sobre lo que significa ser humano en un mundo cada vez más tecnológico y cómo (todavía) distinguir entre humanos y androides. El ex-Machina de ciencia ficción independiente 2014 Ex-Machina, del director Alex Garland, hace una pregunta similar al hacer referencia al concepto de la prueba de Turing: si un robot pasara como humano a cualquier otro humano en el universo, ¿seguiría siendo un robot? Estas son preguntas fascinantes y afortunadamente aún podemos reflexionar sobre ellas en la literatura y el cine de ciencia ficción. Todavía no estamos allí en la vida real, aunque uno tiene que preguntarse cuánto tiempo pasará hasta que el robot más trivial "No soy un robot" sea revisado por un robot ( lo ha hecho).
A pesar de que todavía estamos lejos de los androides que sueñan con ovejas, estamos viendo un progreso constante en la forma de interacciones informáticas más humanas.
¿QUÉ ES LA ACTUALIZACIÓN BERT DE GOOGLE?
En pocas palabras, se supone que Google BERT ayuda a una máquina a entender lo que significan las palabras en una oración, pero con todos los matices del contexto.
Sin embargo, para responder a la pregunta, ¿qué significa BERT? Necesitamos hablar en una nota más explicativa.
BERT, que es lo que se llama la última y más grande actualización del algoritmo de Google, representa las representaciones de codificador bidireccional de Transformers, y es un algoritmo de aprendizaje profundo relacionado con el procesamiento del lenguaje natural.
Entonces, ¿es BERT un modelo de lenguaje? (alerta geek por delante)
Sí, podemos decir que es un modelo de lenguaje. Sin embargo, debe saber que incluso si BERT es un concepto nuevo, no es nuevo. El concepto BERT se hizo público en 2018, en un artículo publicado por investigadores de Google Artificial Intelligence Language.
Según los investigadores de Google, “a diferencia de los modelos recientes de representación del lenguaje, BERT está diseñado para pre-entrenar representaciones bidireccionales profundas a partir de texto sin etiquetar condicionando conjuntamente el contexto izquierdo y derecho en todas las capas. Como resultado, el modelo BERT previamente entrenado se puede ajustar con solo una capa de salida adicional para crear modelos de vanguardia para una amplia gama
gama de tareas, como respuesta a preguntas e inferencia del lenguaje, sin modificaciones sustanciales en la arquitectura específica de la tarea ".
gama de tareas, como respuesta a preguntas e inferencia del lenguaje, sin modificaciones sustanciales en la arquitectura específica de la tarea ".
Se ha demostrado que la capacitación previa del modelo de lenguaje es efectiva para mejorar muchas tareas de procesamiento del lenguaje natural. Estas incluyen tareas a nivel de oración tales como inferencia y parafraseo del lenguaje natural , cuyo objetivo es predecir las relaciones entre oraciones analizándolas de manera integral, así como tareas a nivel de token como reconocimiento de entidad con nombre y respuesta a preguntas , donde se requieren modelos para producir bien salida granulada a nivel de token.
Si le preguntamos a Google qué significa el nombre BERT, veremos una variedad de resultados interesantes. Para ser justos, mi consulta de búsqueda fue para "bert name", nada relacionado con la actualización. Sin embargo, si estamos viendo la sección "la gente también pregunta", obtenemos tres piezas diferentes de información. No es contradictorio, no es opuesto, sino diferente, lo que puede traducirse en confusión para el usuario. ¿La actualización del algoritmo BERT resolverá este problema? Sigamos nuestra investigación para averiguarlo.
Dato curioso: La actualización de Google BERT se lanzó el 25 de octubre, el mismo día que Kanye West lanzó su último álbum, Jesus Is King .
¿QUÉ ES LA ORIENTACIÓN BERT DE GOOGLE?
Según las propias estimaciones de Google, la actualización BERT afectará al 10% de todas las consultas . Ese es un porcentaje tremendo, pero podría no haber causado un chapoteo visible según los estándares de la comunidad SEO. Eso es muy probable porque la actualización se centra en "consultas más largas y más conversacionales", mientras que estas consultas de cola más largas son consultas que (probablemente) los SEO no se dirigen tanto de una manera pesada.
Si esa última parte le resulta familiar, podría ser porque no está muy lejos de nuestras recientes discusiones sobre la intención de búsqueda. La pregunta básica es, entonces, ¿qué es lo que realmente quiere descubrir el usuario? Hay bastantes ejemplos que ilustran la diferencia que hizo BERT.
Search Engine Journal proporciona un ejemplo de comprensión BERT, usando la frase "cómo pescar una vaca", que no tiene nada que ver con la imagen que se puede conjurar en tu cabeza en este momento (o en la imagen a continuación) y todo lo que hay que hacer con un sentido muy particular de la palabra "vaca" en relación con la pesca, refiriéndose a un bajo rayado grande.
El propio Google ofrece algunos ejemplos de consultas que habrían sido bastante claras en la intención de un interlocutor humano (por ejemplo: "el viajero brasileño de 2019 a EE. UU. Necesitaba una visa" y "los estéticos tienen mucho trabajo"), pero eran anteriores a la actualización se perdió por completo en Google, según los resultados que mostró.
Al aplicar los modelos BERT a ambos rankings y fragmentos destacados en la Búsqueda, Google pretende poder hacer un trabajo mucho mejor, ayudando a los usuarios a encontrar información útil. De hecho, cuando se trata de clasificar los resultados, BERT ayudará a Search a comprender mejor una de cada 10 búsquedas en inglés en los EE. UU., Y con el tiempo llevaremos esto a más idiomas y localidades.
Particularmente para consultas más largas y más conversacionales, o búsquedas en las que las preposiciones como "para" y "to" son muy importantes para el significado, la búsqueda podrá comprender el contexto de las palabras en la consulta. Y los usuarios pueden buscar de una manera que les parezca natural.
En un artículo de 2018, Rani Horev predijo la importancia de BERT. Como dijo, BERT mejorará la búsqueda y, sin duda, es un gran avance en el uso del aprendizaje automático para el procesamiento del lenguaje natural. El hecho de que sea accesible y permita un ajuste rápido rápido probablemente permitirá una amplia gama de aplicaciones prácticas en el futuro.
¿GOOGLE BERT AFECTA EL SEO?
Sí, la actualización BERT afecta el SEO y me permite explicar por qué.
SEO: la optimización de motores de búsqueda es el proceso de mejorar su sitio para los motores de búsqueda. Por lo tanto, cualquier actualización que los motores de búsqueda estén haciendo a su algoritmo influye en el proceso de optimización del motor de búsqueda.
Ahora, la pregunta que queda es ¿qué puede hacer para optimizar la actualización BERT?
Leer más acá --> BERT de Google - Cómo le afecta el algoritmo del lenguaje natural -
#SEOCostaRica - #MarketingDigitalCostaRica
No hay comentarios:
Publicar un comentario