Entrevista a Rand Fishkin en la sede de Moz

ENTREVISTA A RAND FISHKIN EN LA SEDE DE MOZ

¡Hola! ¿Qué tal? Aqui Romuald Fons de RomuTV. Hoy tenemos un invitado muy especial, ¡Rand Fishkin!

Romuald: Rand, thank you for being here.

Well, this is your place, thank you for welcoming us here.

Rand: My pleasure.

Manipulación CTR como técnica de ranking

Romuald: Tengo algunas preguntas que me gustaría hacerte. La primera es sobre CTR. Hay una moda en España, en la cual algunos influencers SEO están hablando sobre manipulación del CTR como una técnica de ranking. ¿Qué piensas acerca de esto?

Rand: He visto algunas de estas organizaciones, y de hecho he realizado algunas pruebas yo mismo y podido ver los resultados.

Puedo confirmar que algunas veces, al menos a corto plazo, si tienes un grupo lo suficientemente grande de verdaderos usuarios geográficamente similares buscando algo en Google, y consigues que todos ellos cliquen un resultado en particular, eligiéndolo entre muchos otros, Google seguramente subirá de posiciones esa web, generalmente durante un corto periodo de tiempo.

Uno o dos días, según mis experimentos.

Habiendo dicho eso, Google ha dicho que si pasa el tiempo y cientos de miles de usuarios están buscando una consulta en particular, y empiezan a preferir un resultado sobre otro, hay buenas probabilidades para que el algoritmo de Google elija ese resultado, buscará señales y tratará de encontrar maneras para que ese contenido o esa web sea automáticamente recompensada, colocándola entre las primeras posiciones de búsqueda.

Así que hay dos maneras de pensar sobre ello.

Como un juego de manipulación: “¿Cómo puedo ganar al sistema?” “¿cómo puedo conseguir a la suficiente gente para que haga esto?” “¿Cómo puedo pensar fuera de lo normal para conseguirlo?”…

Para mí es una forma de pensar que se queda corta.

Quiero decir que, Google hizo un buen trabajo acabando con las manipulaciones de AdWords años atrás. Hay algoritmos geniales para ello, y ahora puedes conseguir que te penalicen las webs. Yo conseguí de forma no intencionada que penalizarán serieseats.com.

Es una web estupenda, me sabe mal por ellos.

Google si estás viendo esto, deberías quitarles la penalización porque fui yo, no los penalices a ellos.

Y creo que es una forma de pensar muy a corto plazo. Yo no dependería de ello.

Yo pensaría “¿cómo puedo crear contenido, crear una marca, hacer un snippet, que las personas que buscan en Google prefieran clicar y permanecer más que en cualquiera del resto de resultados de búsqueda?

Se trata de un pensamiento a largo plazo, consiste en combinar tus interés con los interés de los usuarios y con los intereses de Google. Pienso que esa es la mejor manera de pensar sobre SEO.

Romuald: Has mencionado 2 o 3 aspectos importantes aquí.

Uno, has dicho usuarios reales. Creo recordar un experimento en el que pediste en Twitter que se hiciera click en una web. Esas eran personas reales.

Rand: Gente real en Twitter, ni siquiera hice que se pudiera clicar en el link. Tenía un pequeño gráfico. Así que todos tuvieron que ir a Google y buscarlo en sus propios buscadores.

ctr-rand-fishkin-experimentRomuald: La segunda es que esto no dura a largo plazo.

Rand: Eso es cierto. Ninguno de mis experimentos ha durado más de una semana.

Romuald: ¿Más de una semana?

Rand: El que más.

Romuald: Bien, entonces si queréis no me creais a mí, creed en Rand Fishkin: La manipulación del CTR no es nada bueno.

Rand: Quiero decir que no es algo que funcione a largo plazo, ¿verdad?

Y el problema es que cada vez que conseguimos, con una página entre las posiciones 5 y 10 en el ranking, moverla al primer puesto, luego caía a segunda página.

Te está costando muchos clicks caer de la página 1 a la 2, y eso puede durar semanas o si Google piensa que tu eres realmente responsable, como se supone que hay algún tío en la web penalizando, esto podría durar meses, y es muy arriesgado.

interview-rand-moz

El comportamiento o satisfacción del usuario como factor de ranking

Romuald: Otro aspecto que encuentro realmente interesante ahora mismo es el hecho de que el comportamiento de usuario o su satisfacción ayuden al posicionamiento.

Hay algo que los ingenieros de Google dicen, y es que ellos no usan datos de Google Analytics para posicionar.

Estamos hablando de pogo-sticking, de porcentaje de rebote y de tiempo en la web – ¿es algo que obtienen fuera de Analytics o estamos hablando de algo más?

Rand: Ambos son verdad, estamos hablando de algo más.

Google está definitivamente mirando, no tu CTR particular, o el tiempo en la página, o el porcentaje de rebote,… Van a estar mirando la relación de tu web con otras páginas en los resultados de búsqueda, y en una amplio conjunto de resultados.

Así que si tienes miles de keywords posicionadas y tus competidores también están posicionando para ellas, Google va a estar mirando claramente entre ellas, y si ven que hay generalmente más gente feliz cuando visitan tu página web que cuando visitan las de tu competencia, eso es lo que hará que mejore tu posicionamiento.

Tampoco obtienen está información de Analytics. Les creo cuando dicen que no están en Google Analytics, pero sí en Google Chrome, en Android, en la WiFi de Google, están en Google Fiber, y pueden comprar clickstream data.

Tienen acceso a un 80% de la información, más todos los clics que haya en la web, y por supuesto saben todo lo que pasa en Google.com.

Así que incluso si no estuvieran en ninguna de estas propiedades, pueden ver al menos que una persona, un buscador, fue a Google, buscó en la caja de búsqueda, hizo click en el resultado número 3 y, 16 segundos después, volvió a la página de resultados e hizo click en la cuarta posición y luego no se le volvió a ver sobre esa consulta.

La posición 4 satisfizo esa búsqueda, y no la posición 3.

Así que Google adquiere sus datos de muchos lugares, no necesita Analytics, no necesita acceder a tu web para conseguirlos.

Romuald: Pero entonces no estamos hablando de lo que ellos hacen en la web. ¿no?

Desde una perspectiva SEO, la única cosa de la que nos tenemos que preocupar sobre el comportamiento del usuario como factor de ranking, es este bouncing rate, el bound rate, este pogo-sticking…

Rand: Bueno, no necesariamente..

Romuald: ¿O tenemos que intentar hacer que el usuario navegue en la web y todo eso?

Rand: Lo que queremos hacer es satisfacer la consulta de búsqueda del usuario, ¿verdad?

Porque, lo que pasará es que Google mirará, ya sabes, la dirección IP del usuario, y su log in, porque conocen su cuenta, así que verán si realiza cierta consulta…

Si realizan una búsqueda y entra en tu web o si no, si permanecen en ella, o si se va a otro lado, si hace click en el marcador para cerrar el navegador. Pero también verá si un par de días después vuelve a Google y busca algo más, o algo similar, o si busca algo pero no hace click en tu site y clican en el de otra persona…

Eso le está diciendo a Google que no hiciste un buen trabajo para satisfacer a un usuario por completo, porque tuvo que volver o ir a otro lugar, ¿verdad?

Algunas búsquedas, algunas consultas, como “comprar una casa”, en las que necesitas hacer muchas búsquedas, quizá hagas click en el mismo site varias veces, o realices muchas búsquedas. Google lo sabe.

Pero hay algunas consultas en las que sólo volverías a buscar si no estás satisfecho, y eso es lo que ve Google, eso es lo que tendríamos que solucionar.

A largo plazo no quiero preocuparme de donde Google coge la información, o la mayor parte de la información. Quiero preocuparme del hecho de que mi página web esté solucionando el problema del visitante.

Romuald: Genial, entonces estamos hablando de que ellos tienen un historial de todo lo que hacemos en Google, como Google My Activity, y usan esos datos para saber…

Rand: Sí, eso es cierto. Por lo que dicen están entrenando a las máquinas y a sus sistemas de aprendizaje profundo comparando ese click con la consulta y los datos de ésta, ¿cierto? Y tienen a billones de buscadores, realizando billones de consultas, haciendo billones y billones de clicks, y luego entrenan a sus sistemas realizando comparaciones con esta información para, principalmente, ofrecer resultados que sirvan a la mayoría de usuarios.

El factor ‘ghost linking’ o link fantasma

Romuald: Otro aspecto del que me gustaría hablar es del poder residual de los enlaces – links que una vez apuntaron a una web pero que ya no existen, ¿es eso cierto?¿O No? Porque he hecho algunas pruebas, ya te explicaré de que van, pero me di cuenta de que sí, de que algo pasa ahí, ¿no?

Rand: Nos dimos cuenta de lo mismo.

Hicimos las mismas pruebas, creo que hablamos de lo mismo, cogimos un montón de webs, les añadimos links en algún lado, los quitamos y esperamos a que Google reindexara todas las páginas que solían tener enlaces, así que claramente ellos sabían que esos links ya no existían, pero los rankings no cayeron inmediatamente. Lo hicieron al final, pero después de mucho tiempo.

Lo llaman el “ghost linking factor”, el factor del link fantasma.

Romuald: Sí, lo que hice fue crear una web y hacer una estrategia de enlaces muy mala, no hacemos eso con nuestros clientes, para todos aquellos pensando en hacer esto en casa, no lo hagáis, somos profesionales.

No, pero hice que esta web posicionara para ciertas palabras clave y luego retiré los enlaces, pero el contenido era bueno. Y la web permaneció ahí y sigue ahí un año después. – Por eso pregunto sobre la satisfacción del usuario, porque no tengo manera de separar una cosa de la otra, pero…

Rand: Eso parece un sólido vaticinio, ¿no?

Una vez que está en el top 10 del ranking y satisfaces al usuario, incluso si los links empiezan a caerse, Google no quiere necesariamente quitarte de ahí. No quieren quitarte fuera de los resultados cuando satisfaces a los usuarios. Eso es malo para el negocio de Google.

Lo que quiero decir es que los links pueden influir en como llegas al top, pero no necesariamente en como permanezcas en él. Permaneces ahí, ya sabes, porque estás siendo util a los usuarios. Claro que los dos sabemos que en espacios competitivos todavía necesitas enlaces, pero…

El poder de los backlinks que no atraen tráfico

Romuald: Sí, por supuesto.

Bueno eso me cabrea, puedo decir eso ¿no?

Me cabrea sí, porque Rand, ¿por qué crees que los backlinks funcionan aún tan bien? Esos links black hat, hacerse con muchos dominios antiguos con un montón de de backlinks, donde ponen algo de contenido, y luego ponen links malos redireccionándolos a una web externa y posicionar con esto… Google tiene demasiadas herramientas para saber que los backlinks no están atrayendo tráfico, así que… ¿Por qué?

Si pueden eliminarlo, ¿por qué tienen aun tanta fuerza?

Rand: Creo que visto un par de cosas:

Es mucho más difícil ahora de lo que solía serlo: hace 4 años, por supuesto, era súper fácil, ¿verdad? Hace 3 años, algo un poco más fácil; hoy difícil, no imposible, pero difícil. De aquí a dos años va a ser mucho más complicado. ¿De aquí a 4 años? Ni siquiera sé si será posible.

Me explico, todos vemos como Google se está dirigiendo en una dirección.

Sí, lleva algo de tiempo, –  creo que su ingenieros gastaron mucha energía en los dos últimos años en identificación de contenido, en satisfacción del usuario, en reconocimiento de las búsquedas con heramientas estilo RankBrain y Humming Bird…, y creo que en los próximos años vamos a ver una mayor concentración en eliminar el spam, manipulación y backlinks…

Vimos un esfuerzo muy grande en ello en 2001/2012, sospecho que en 2017/2018 lo veremos de nuevo.

Y ya sabes, es una de esas cosas que si solo necesitas posicionarte unos pocos días, semanas, incluso un par de meses, vale. Quizá pruebas con algunos backlinks. Pero si estás tratando de construir un negocio, de construir una marca, no puedes depender de este tipo de cosas. Porque aunque elabores un contenido increíble y una gran marca, si empiezas a meter backlinks… te pueden penalizar por años.

Estoy seguro de que has intentado hacer que reconsideren tu web para estar de vuelta en Google y es una pesadilla. Y en ocasiones, a ellos ni les importa, no escucharán, no harán nada. Puedes tener la mejor web en el mundo, que no servirá. Es bastante peligroso.

Romuald: Es peligroso, pero sobre lo que hemos hablado antes de conseguir que tu web se posicione usando backlinks y una vez retirados permanezca ahí, es como “wow”.

Rand: Sí, supongo que mi pregunta sería, ¿cómo de conveniente y útil es eso?

¿Puedes conseguir que los usuarios confíen en esa web? ¿Puedes conseguir que conviertan muy bien de la manera que lo harían con la web de una marca que reconozcan?Probablemente no. ¿Puedes conseguir que permanezcan el tiempo suficiente, como para que el esfuerzo puesto en ello merezca más la pena que creando buenos links, buen contenido en una buena web que se posicionará por mucho tiempo?

No tiene sentido, le estás dedicando horas y días a algo que va a ser arroyado y Google lo sabe.

¿Cómo dormirías? Te levantarías en mitad de la noche pensando “ ¡oh no me van a penalizar por esto que he hecho!”

¡Menuda pesadilla!

Crawl Budget and Ranking Reputation

Romuald: Hay algo sobre lo que me gustaría hablar, ¿qué llevaría a alguien a no indexar algo o a hacer do-follow, si no lo queremos en el index de Google y también porque nos estamos dejando crawl budget en ello, no?

Rand: Sí, hay dos puntos sobre los que pensar: Crawl budget and ranking reputation.

El crawl budget, es esencialmente cuánto ancho de banda de estas spiders estoy usando y en qué páginas.

Pero si tienes una web pequeña o mediana con buenos enlaces, y en su mayoría tiene buen contenido en ella, sobre todo buen contenido, debes pensar que está totalmente bien que Google venga y rastree todas estas páginas, no me preocupa el crawl bandwidth, lo que me preocupa es asegurarme de que esas páginas que entren en el index por Google, representen la mejor parte de la web, que representen las páginas de la web que van a servir al usuario en su búsqueda.

Y resulta que tengo muchas páginas en la web que son subcategorías, o que son muy similares en contenido en una plataforma de e-commerce, y que solo tienen diferentes colores. Y quiero que Google sea capaz de ver esas páginas, de rastrearlas sin problemas porque a la gente les gusta, hace link, yo hago les hago links, quiero que Google sea capaz de rastrear esos links, pero no los quiero en el index separados, ¿cierto?

Es este caso no estás optimizando el crawl budget, estás más bien optimizando debido a, ya sabes, el posicionamiento y la reputación, en ambos casos tiene sentido.

Hay un gran post en Moz de hace un par de semanas, por Everett Sizemore, hablaba de un modelo de web iceberg: ¿cómo puede permanecer este gigantesco pedazo de hielo bajo la superficie si es existencialmente chatarra, cierto? No es contenido que sirva al usuario, aunque podría estar sirviendo a los visitantes de la web. Y eso son dos cosas diferentes.

Así que quieres eliminar esa chatarra potencial usando el no index meta robot tag, en contraposición a eliminar completamente la capacidad de Google para ver esas páginas.

El problema es que Google aún puede mostrar esas páginas en index incluso si dices que los meta robots no rastreen eso.

Eso apesta, ¿verdad?

Porque entonces ellos pueden ver que esas miles de páginas pueden posicionar bien en Google pero puede que digan “ debido a las robots tags no podemos mostrar descripciones de esos archivos, así que por eso ese snippet se parece bastante a la URL”.

Puedes ver eso en Google bastante a menudo y no es lo óptimo.

Si realmente quieres eliminar esas páginas de Google pero no quieres eliminarlas de tu web, puedes usar los metarobots. Así que hay casos en el que cada una de estas diferentes acciones tienen sentido.

¿Tiene sentido perder tiempo colocando nofollow o enlaces internos?

Romuald: En este caso ¿queremos bloquear esos spiders para que no puedan acceder a esas URLs, los links internos que se dirigen a esas URLs deberían ser nofollow o deberíamos dejarlos dofollow? Porque no hay una respuesta clara para ello.

Rand: Creo que eso tuvo sentido alguna vez, pero ya ha pasado.

Yo ya no gastaría mi tiempo o energía en poner nofollow o enlaces internos hacia páginas que no me importan.

El beneficio sería casi nulo.

He visto algunos casos en páginas muy muy grandes donde, por algún motivo, sí que tiene sentido hacerlo. Pero es muy raro.

Diría que ya no tiene sentido hacerlo. Sí que tendría sentido si tienes, por ejemplo, un gran número de enlaces que están apuntando a páginas a las que no te apetece que Google acceda internamente y entonces dices “mira, ¿sabes qué? Me fue tan bien con ese sidebar apuntando a un montón de páginas que Google no necesitaba, no son para Google, así que voy a ponerlas en un fichero incrustado para hacer denegar los robots y tags” – sería básicamente un iframe. Entonces cuando el iframe haga el disallow, Google no podría ver esos links – entonces te quedarías con el sidebar que tendría enlaces para los usuarios que Google no podría ver.

Romuald: Sí, pero creo que Google sí puede verlos aunque no los tenga en consideración, ¿no?

Rand: Sí, sí los ve pero también ve el robots.txt y dice – no vayas, nos rastrees el iframe.

El futuro del Google RankBrain

Romuald: Para terminar, quiero preguntarte si crees que RankBrain va a parar a todas estas redes privadas realizar linkbuilding y todo eso, porque no sé muy bien para qué ha llegado aquí RankBrain, pero sí creo que Google tiene un gran problema,  – del que ya hemos hablado antes -, sobre el proceso de penalización, de hacer disallow,  de enviar solicitudes y todo este rollo que es horrible, realmente horrible para ellos, porque es demasiado trabajo, y también para los webmasters, ¿no?

¿Crees que RankBrain será utilizado para no dar poder a los enlaces que no deberían tener poder, o para que crees que ha llegado RankBrain?

Rand: Rankbrain es básicamente para la interpretación de búsquedas – si buscas “¿cuáles son las mejores marcas de tejanos?”, y luego otra persona busca “mejor marca tejanos” o “mejor proveedor de tejanos” o “compañías con mejor acabado de tejanos azules”. Lo que hace RankBrain es «Estos modelos de lenguaje nos están indicando que estas consultas deberían obtener todas el mismo o resultados parecidos, porque básicamente significan lo mismo». Estamos muy cerca de que eso ocurra.

Eso es lo que es RankBrain ahora mismo.

Pero lo que creo que es más interesante es ver RankBrain como un modelo de aprendizaje profundo que está usando esencialmente redes neuronales para llegar a interpretar las búsquedas.

Ahí es donde creo que puedes enfatizar todas las etiquetas de red neuronal, ya Google ha dicho públicamente que están reciclando su núcleo de ingenieros y reorientando el aprendizaje de las máquinas en base a los algoritmos de posicionamiento y, por ese motivo, puedes empezar a decir, “vale, es un nuevo sistema de aprendizaje spam, aquí hay un millón de enlaces que nunca contaremos, aquí hay un millón de enlaces que sí queremos que cuenten. Aprende este modelo y luego ve al resto de páginas webs y cuenta todos los enlaces que hay que contar y no cuentes los erróneos.»

Penguin era un poco así, ¿verdad? Pero era una versión muy temprana de esto.

Google va doblar sus esfuerzos en ello.

Si crees que puedes engañar a un sistema de aprendizaje a largo plazo tan profundo, creo que te llevarás una sorpresa desagradable, ¿me equivoco?

Google simplemente va a mejorar y mejorar en cosas como estas, al final se va a hacer más y más complicado… Así que sí, creo que la tecnología como RankBrain y Penguin y todos esos algoritmos van a acabar manifestándose por ellos mismos más y más.

Y estar ahí para verlo va a ser genial.

Romuald: Va a ser absolutamente genial.

Rand: Por alguna razón, no sé si tu también te sientes así, en 2009/2010 ya no era tan divertido spamear a Google.

Lo que era realmente era divertido, era crear contenido auténtico, del que pudieras hablar, y conseguir enlaces de los que estar muy orgulloso, y no tener que preocuparte de que Google te los quitara alguna día.

Todas eso del spam ya ha perdido la gracia para mí.

Ya no es divertido, había que manipular demasiado y era molesto… ¿Pero crear contenido auténtico? Me encanta.

rand-fishkin-interview

Romuald: Sí, me encanta, y te hace sentir tan orgulloso cuando algo funciona porque lo has hecho de manera correcta.

Rand: ¡Exacto! Sin necesidad de esconder nada, ¿sabes?

Romuald: Poder decir «hey, puedo dormir a gusto, despertarme tranquilo mañana».

Rand: Creo que dormir tranquilo es digno de una cierta cantidad de lo que cobres.

Romuald: Claro.

Rand: Yo devolvería una cantidad de mi salario a cambio de dormir mejor.

Romuald: Durante este viaje ha sido imposible dormir bien – hemos dormido como 3h diarias -.

Bueno, Rand, muchas gracias por tenernos aquí.

Rand: Ha sido un placer, gracias a ti por venir a mi casa.

Predicción: Próxima actualización de Google Penguin

Romuald: Sólo una cosita más, sé que te gustan las predicciones, ¿cuándo crees que se publicará la siguiente actualización de Penguin?

Rand: Creo que será sobre diciembre… No, realmente no creo que vaya a pasar en diciembre, creo que será entre enero y abril del 2017.

por Romuald Fons

CEO & Founder de BIGSEO

Deja un comentario

Twittear
Compartir
Compartir