10 Mejoras SEO para Aumentar el Tráfico Orgánico de tu Blog

59

Hoy te cuento cómo con mejoras de SEO Técnicas he conseguido aumentar el tráfico orgánico de mi blog más de un 185% en 4 meses.

¿Qué no te lo crees?

Pues haces bien, porque si te lo contara yo sería una bocachancla, que me estaría metiendo en algo que no es mi terreno y no aprenderías nada.

Peeero, el que yo no sepa de SEO Técnico, no quiere decir que no podamos aprender en el post de hoy, las cosas que ha hecho mi compi Luis Salazar en mi blog, para aumentar mi tráfico orgánico.

Luis es un máquina a nivel de SEO técnico y también Growth Hacking, pero tiene un defecto enorme: que es tremendamente tímido y muy muy humilde.

Hasta tal punto, que quería que este post que él me ha escrito, lo firmara yo, porque el lo único que pretende es explicar, que el SEO es algo mucho más complejo y profundo que lo que se lee en muchos blogs y que hacen mucho daño.

A mi me gusta darle voz a la gente que aporta, ya lo sabéis y a la gente que puede enseñar algo, que admiro y que nunca os podría contar porque no tengo su conocimiento.

Por eso, hoy presento muy orgullosa a Luis, que se ha pegado un trabajazo enorme con mi blog (ya que sabéis que yo a Google quiero caerle bien por simpática y no por SEO) y que ha hecho que aumente mi tráfico orgánico un 185% en 4 meses, toma ya!!.

Os dejo con él, que os va a contar las tácticas y experimentos que ha seguido conmigo.

Adelante crack!

 

Luis Salazar

Como se ha dicho hasta la saciedad, sin crawleo no hay indexación y sin indexación no hay rankeo.

Dicho esto, lo primero es lo primero, cuando venga GoogleBot le tenemos que poner la alfombra roja para que se lleve un buen recuerdo.

Sin crawleo no hay indexación y sin indexación, no hay rankeo. #SEO by @bywoda - Piopialo          

Powered by Vcgs-Toolbox

Vamos al ataque!!

 

Indexación & Crawleo

1⃣Optimización del fichero robots.txt

Desde luego este no es un buen aspecto para cuando venga GoogleBot a hacer una visita a tu web.

Si tienes en WordPress tu blog y no sabes qué hacer para mejorarlo, échale un vistazo al fichero txt de Ana, a ver qué te parece:

Archivo txt de El Blog de Ana Mata

Esto son las tripas de Ana, después de una liposucción

Si no has tuneado ya el fichero robots.txt, ¿a qué esperas?.

Es muy fácil y aquí está el truco:

Da de alta la cuenta de Search Console, si no la tienes activa ya, claro está, y desbloquea aquellos ficheros e imágenes que no sean accesibles por lo crawlers.

Recuerda:

Ficheros CSS, JS y cualquier imagen tienen que ser accesibles por los bots.

Todas tus imágenes, deben ser accesibles por los bots by @bywoda

Estado lamentable en el que se encontraba el blog de Ana, antes de una liposucción

Fue un proceso arduo, aunque parezca mentira, pues como siempre lo que falla entre las personas es la comunicación: No entiendo lo que dices, ¿qué quieres conseguir?, ¿esto para qué?, etc, etc 🙄

Seguimos con las mejoras de indexabilidad y crawlabilidad y ahora toca ir a por los errores 404 reportados por Search Console.

¿Qué hacemos?

Redirección 301 al canto y no hay más que hablar.

Ojo!! En este punto tienes que tener siempre en cuenta que donde redirecciones  debe tener una relación semántica o el contenido sea lo más parecido posible.

Por ejemplo, no vamos a redireccionar post de Analítica a Growth Hacking porque sí. Tiene que seguir todo una lógica detrás.

 

2⃣ Redirecciones 301

Muchas veces eliminamos contenidos que están obsoletos y no han generado ningún engagement.

Lo que solemos hacer la mayoría, es borrarlos sin más y claro, Google luego no los encuentra y nos da un error 404.

Como mi objetivo era seguir mejorando la crawlabilidad, implementamos las redirecciones 301 a nivel de servidor, mediante .htaccess para ahorrarnos un plugin.

Si nos ponemos, nos ponemos!! 😎

Aumenta la crawlabilidad con redirecciones 301

Listado de post eliminados y redireccionados a otros con más autoridad

Como has podido ver en la imagen, si alguna categoría de tu sitio web no tiene engagement, no quieres escribir más sobre esa temática o le quieres pasar “link juice” a otra categoría, con esta medida se provee una alternativa a esas URL’s que están indexadas pero que cuyo contenido no te aporta valor, desde el punto de vista del tráfico orgánico.

Utiliza 301 sobre contenido eliminado, mediante el .htaccess para mejorar la crawlabilidad @bywoda - Piopialo          

Powered by Vcgs-Toolbox

 

3⃣ Eliminación de errores 404

¿Y cómo detectamos a los diablillos estos?

Por si no son pocos con los errores que Search Console reporta a nivel interno del WordPress, todo enlace roto (interno o externo), el bot lo crawlea y reporta un estado – 200 Ok, 404, etc.

Esto también cuenta.

Si no lo has hecho ya, utiliza Broken Link Checker  y empieza a mejorar la crawlabilidad de tu blog.

Brokenlinkcheck para limpiar url antiguas

Brokenlinkcheck para limpiar url antiguas o enlaces en comentarios sin sentido

Recordamos: hay que chequear URL’s internas y externas.

De vez en cuando es bueno hacer limpieza y revisar por ejemplo, aquella fuente que citaste hace 2 años, que ya no tiene tanto tirón y que el servidor va a pedales te reporta “bad hosting”.

Cuando esto sucede, no es una buena señal.

Más vale lo poco bueno que lo mucho malo, by @bywoda #SEO - Piopialo          

Powered by Vcgs-Toolbox

 

Performance

Empezamos con la dieta Dunkan del SEO y vamos a eliminar peticiones HTTP como locos.

Esto es una lipo en toda regla.

No estamos en verano pero hay que ir preparando el cuerpecito de tu blog que Google está despierto 24X7.

 

4⃣ Minimizar peticiones HTTP

Cuando se hizo un análisis SEO inicial del blog de esta señorita, vimos el tiempo que tardaba en cargar y era algo como esto:

Dadle al vídeo y fijaros especialmente en la parte derecha, lo que tarda en mostrarse la cajita de Google Plus.

Si sois un poco más “tekis” como yo, podéis pulsar en este enlace y seguir viéndole las tripas para daros cuenta de lo que yo descubrí.

Houston, tenemos un problema:

141 peticiones HTTP a las bravas en el Blog de Ana Mata, que fuerte me parece tía 😱

Miramos un poquito más adentro del Blog y vemos que tiene 2 cartucheras en el lateral que no se pueden disimular ni mirando de perfil.

Qué barbaridad!!.

Cortamos por lo sano y mandamos a paseo esos 2 widgets de Google + y Facebook.

Y sin trampa ni cartón, el antes y el después, con datos para que no quede duda que luego la gente ya se sabe… sí sí… lo he leído no sé donde.

Aquí tenemos el antes y después, tras la eliminación de los widgets laterales de Google+ y Facebook:

Antes de la liposucción
Antes de la eliminación de widgets laterales

El antes con un tiempo en la página y tamaño mayor

Después de la liposucción
Después de la eliminación de los widgets laterales

Vemos como baja el tiempo de carga, el tamaño de la página y el número de peticiones

 

Nos arremangamos y nos ponemos en plan fetén, de freaks finolis y nos metemos a tocar cositas: código para no ser mal pensados y para que la cosa vaya tomando cuerpo.

Despacito y buena letra que entramos en terreno pantanoso para los perfiles menos técnicos.

Vamos a mejorar el WordPress por donde lo ven las máquinas:

 

5⃣ Eliminación de HTML innecesario en WordPress

Básicamente, WordPress por defecto contiene código HTML que viene en el CMS y nos lo ensucia.

Puedes pensar que para una sola página no importa, pero para cientos de páginas es información que tienen que procesar por los bots, consume recursos y no aporta valor al posicionamiento.

Cada pequeño detalle cuenta.

El objetivo es hacer una mejora y que se reproduzca en todo el Blog. De nuevo, poquito a poco se hace el camino.

Una mejora técnica puede tener un impacto directo y la suma de ellas, como veremos al final, ha dado sus frutos.

 

6⃣ Eliminar emoji WordPress mediante código


Esta es la cara de Ana cuando le dije este punto…

Para resumirlo, con el código que aparece en el enlace que tenéis en el título de este punto, eliminas código CSS y JS del Theme de WordPress que de nuevo, no aporta valor.

Ahorras peticiones HTTP y dejas tu blog un poco más “limpio” para los crawlers.

Otro factor que no se tiene en cuenta, es que el ancho de banda cuesta dinero.

A medida que vaya subiendo el tráfico de tu blog, llegará algún día que el proveedor de hosting te dirá: “Pasa por caja, que has excedido el límite de descarga”

Ya hemos visto unos consejos para aligerar la carga.

Ahora pasamos a optimizar la carga de la web en el navegador.

Piensa en todos esos usuarios que están accediendo con la tarifa de datos de camino al trabajo, o a la vuelta de este, que quieren leer tu post y tienen que esperar una vida.

Mala experiencia de usuario, tasa de rebote alta… y luego la culpa para quien???

 

7⃣ Eliminar recursos estáticos en WordPress

Los navegadores no pueden cachear un enlace o URL con un símbolo “?” en la misma.

Recuerda, la memoria caché es tu amiga. Se recomienda utilizar cadenas de consulta solo para los recursos dinámicos.

En WordPress puedes conseguir mejorar el rendimiento de tu web y mejorar el Performance o tiempo de carga de este.

Inserta las líneas de código que aparecen en el enlace superior facilitado, en el fichero functions.php del Theme que hayas elegido.

Analiza el Page Speed antes y el después con cualquier herramienta que conozcas, GTMetrix o Google Page Speed para ver los resultados.

Sin duda, si haces todo verás la diferencia.

 

8⃣ Optimizar la caché del navegador

Aquí necesitas un perfil técnico que te ayude.

Mediante la optimización del fichero htaccess, se incluye en el Header el tiempo de expiración de un determinado archivo.

De este modo, este no es cargado nuevamente si es que aún no ha expirado el tiempo mediante el que fue configurada la cache.

Se aplica a ficheros que no cambian en el tiempo como imágenes, vídeos, ficheros JS y CSS.

Y… ¿Qué conseguimos con todo esto??

Pues actividad de los bots, que vengan y vean cambios.

¿Y esto con qué fin?….

Pues ser un Blog más atractivo para los motores de búsqueda y así traer más tráfico.

Mira que bonito esa frecuencia de rastreo en aumento y más kilobytes descargados al día, aquí pasa algo.

Estadísticas de rastreo de El Blog de Ana Mata

Frecuencia de rastreo de el blog de esta personaja

 

SEO On Page

Y como no todo el SEO es técnico, vamos a darle un poquito de alegría al SEO Onpage Macarena!!

Como el Theme del Blog tenía más de una Heading H1, pues el bot se hace la picha un lío.

Un solo H1 por página, las cosas claras y el chocolate espeso #SEO by @bywoda - Piopialo          

Powered by Vcgs-Toolbox

Todas las páginas con un H1 duplicado para Ana Mata, que afán de protagonismo hija!!  to pa tí 😂😂.

Para solucionar esta parte, se implementa un H1 correspondiente al nombre del artículo y se eliminó el H1 por defecto que venía en el Theme de WordPress.

 

9⃣ Optimización H1

Optimización H1 de un blog
Con esto se consigue discernir la información de manera que simplificamos un poco la labor titánica que supone el hecho de procesar millones de webs en Internet.

Por ello Google nos premia, porque le hacemos la vida un poco más fácil.

Vamos terminando y vemos que el barco ha llegado a buen puerto. Vamos a mirar donde pocos miran, en los ficheros de logs.

¿Y eso que es?

Son los ficheros que registran la actividad en el servidor de los crawlers por dónde pasan, qué páginas visitan más y a partir de esta información vemos qué le gusta a las máquinas y que no.

Con esto procesamos información y podemos disponer de un valor extra para ver qué pasa en el interior y así descartar aquellos artículos o contenidos que no tienen visitas, pero el bot pasa mucho tiempo en ellos.

El objetivo es maximizar los recursos, de esta forma, la próxima vez que vuelvan a rastrear información no encontrarán aquellos contenidos que no nos interesa posicionar, o a los que los usuarios no acceden.

¿Qué queremos conseguir??

Eficiencia, eficiencia y eficiencia, que es la madre de la ciencia (era así, ¿verdad?).

Lo que quiero transmitir es lo siguiente:

Si hay cientos o miles de blogs que hablan de lo mismo que tu haces¿cómo vas a destacar de cara a las “maquina” si no tienes un elemento extra respecto al resto de sites de tu nicho?.

El diablo está en los detalles, todos lo sabemos.

Normalmente hay tantas cosas fuera de nuestro rango de acción o que desconocemos que la colaboración de un perfil completamente diferente al tuyo es el que te va a aportar ese valor añadido que puede darte ese puntito extra que te falta para aparecer un poquito más arriba en los resultados de búsqueda.

 

SEO Técnico

🔟 Análisis de logs

Análisis de logs #SEO

Como vimos en un Webinar que impartí para SEMRush, la técnica que se llevó a cabo fue analizar logs antes de realizar la mejoras técnicas que hemos visto.

Posteriormente, se implementaron todos los procesos que se ha analizado.

Como has podido ver en la imagen, en aproximadamente un mes se vieron cambios significativos de qué URL’s fueron más rastreadas por los crawlers.

Esta información nos sirve para deducir, por ejemplo, si los ficheros Sitemap que genera WordPress fueron rastreados con una frecuencia mayor tras las mejoras.

Esto es una señal beneficiosa para el posicionamiento pues cuanta más frecuencia tengan los bots en volver a visitas y conozcamos por donde “pasan”… pues podemos llevar a cabo otras técnicas de posicionamiento en buscadores.

Con ello queremos que “encuentren” aquellos cambios, mejoras u optimizaciones que podemos implementar para que salgamos beneficiados del que, desde mi punto de vista, es la mejor fuente de tráfico de todas:

El tráfico orgánico.

¿Y cuál es el resultado de todo esto?

Pues mira el PDF haciendo clic en el botón, que los números no mienten.

descarga resultados

Y de quién ha sido esta idea?…. de un friki.

Busca su nombre, Luis Salazar Jurado, entra a su web www.seotecnico.com y contacta con el si tú también quieres conseguir esto para tu blog.

Imagen destacada del post: SEO, de Shutterstock.

 

Conclusiones y Lecciones aprendidas Sobre el Tráfico Orgánico

Holiii!

Soy Ana otra vez… no me digas que no te traigo gente chula para aprender cosillas nuevas.

Como dice Luis a lo largo del texto, lo más difícil es la comunicación: el sabe mucho de SEO técnico y yo pensaba que no existía o que eran los padres.

Me costaba entender todas las mejoras que me proponía y por suerte, cuento con mi pareja que se podía pelear con el código para hacer las cosas que él decía.

Cuando empecé a ver las gráficas de esas mejoras y a ser consciente de los errores que estaba cometiendo, es cuando vi claro que teníamos que escribir este artículo, para que todo el mundo que estaba en fase de pañales como yo, entienda que el SEO es mucho más que poner en verde el semáforo de Yoast.

Os tengo que contar que seguimos con mejoras, que esto no para y que muchas más propuestas de Luis para seguir mejorando mi tráfico orgánico, las descarté puesto que era bastante trabajo y voy a cambiar todo el diseño de la web.

Así que ya sabéis, si por ejemplo habéis borrado un post de hace mil años que no os gusta o no os traía tráfico, no lo dejéis en el limbo y hacer lo de las redirecciones.

Mirar en Search Console los recursos bloqueados o tened en cuenta, que vuestra plantilla de WordPress, puede estar duplicando los h1 y sobre todo, pensad que esto del SEO técnico, no lo puede hacer cualquiera.

No es optimizar un título ni nada, es meterse mucho más a fondo y tener conocimientos reales del tema, así que, en lugar de gastar el dinero en la plantilla más mona del mercado o en el plugin de turno que te va a cargar la web de peticiones, deberíais plantearos invertir en un profesional como Luis para que os aligere el blog y haga que a Google le guste más.

Si estáis empezando con vuestro blog, entiendo que no tendrá mucho sentido, porque minimizáis vuestra inversión.

Pero cuando ya lleváis un tiempecito y queréis tener más visibilidad o vender algo, necesitáis mejoras de este tipo sí o sí. Avisados estáis.

Y ahora es vuestro turno: Luis estará por aquí en los comentarios para atender vuestras dudas y preguntas.

¿Conocías qué esto del SEO técnico? ¿Crees que necesitas una liposucción como la que a mi me han hecho? ¿Soy yo la rara o tu tampoco entiendes el idioma de estos frikis técnicos? Cuenta cuenta…


  • Voy a comentar antes de leer, no será un popup pero como duele a la vista! https://uploads.disquscdn.com/images/6dee2be46fc3e0907decd5fdf85d2d2ece037c7f9b3fe58cacadee59952e4234.gif

    • Eres un petardo, eso es la primera cosa… no hace daño a la vista, lo que pasa es que como no estás acostumbrado a flashes y demás pues te parece extraño @gastre:disqus jajajaja

      Sí, yo no controlo mucho, pero sé que tener mucho plugin es tener mucha caquita dentro de wp.

      Lo del blog y el árbol… hoy qué has tomado?? jajaj..

      Gracias por comentar!

      • Se que tu no lo ibas a entender, ese mensaje era para Luis!

        • Buenas, estoy aprendiendo a comunicar.

          El post lo ha escrito Ana, lo que pasa es que es tan buena gente que dice que lo he escrito yo. Yo me centro en la parte técnica.

          De gif animados no entiendo, jaja.

          Espero poder aportado algo a los lectores de Ana que confió en mi desde el principio.

          Igualmente, animo a aquellas personas que usen WordPress como CMS para que apliquen estos cambios y se beneficien de la parte SEO técnica que les pueda traer.

          • Claro que has aportado Luis y mucho!!! Y lo has escrito muuuuuy bien, porque hasta yo lo he entendido y fíjate que eso tiene mérito.
            Un besote ;D

          • A mi me ha encantado… Mi voto es un SI!
            Perdona, que estaba viendo got talent y me he venido arriba.

            En serio, me gusta mucho el post, yo pillo muchas ideas y las aplico a blogger.

          • Gracias, espero puedas obtener un beneficio similar al de Ana al aplicar las mejoras

  • jajaj, Ana, pues será todo lo técnico que quieras el SEO (que lo es) pero explicado así de bien estoy convencido que se entiende genialmente bien.

    Saludos.

    • Mil gracias @RaMGoN:disqus
      La verdad es que Luis ha hecho un gran trabajo y un esfuerzo titánico en que yo entendiera todo lo que él me contaba, que no veas lo torpe que soy para esto, jajajaja.

      Un besote crack

  • Genial explicado Luís. Técnico es, pero es muy comprensible para todos. 🙂

    Tengo que reconocer que en su día, cuando no tenía ni idea del SEO, borré como unos 100 post antiguos…así a lo bruto…jajaja menos mal que siempre nos queda el 301.

    Gracias por este contenido.

    • Hola @carlosmiana:disqus
      Pues yo lo de redireccionar post eliminados a otros con relación semántica ni lo había pensado… Me pasa como en casa; cuando me da por tirar cosas a la basura no paro..

      Gracias por comentar!

  • No voy a contestarte porque estoy deslumbrada por los flashes de mi gif, jajajaja

    La mejora es brutal, aunque lo de los emojis duele en el alma… y menos más que Luis no se ha metido con los gifs, que si no, me rompe el alma.

    Lo del h1 no te creas que es tan raro… hay plantillas que lo duplican… lo que es raro es que haya un ser tan idiota como yo, que no lo hubiera visto antes…

    Gracias por comentar compi!

    • Realmente dependiendo de la estructura de la web, y la programación en html5, tener varios h1 no está mal, pero en tu caso si lo estaba jaja y en la mayoría de webs también, cierto que muchas plantillas están mal programadas, vamos una gran mayoría, entre enlaces ocultos, fallos de programación, bugs, y ningún interés en ayudar en seo jajaja ya te puedes imaginar.

      Saludos a todos!!!

      • Yeahhh… por eso @gastre:disqus siempre está recomendando blogger… para evitar estas cosas en las templates y demás… Pero fíjate, todos los que somos user looser del SEO, nos pasa lo mismo… nos fijamos en la estética de la plantilla y en poco más, así que viene genial ver este tipo de cosas.
        Un besote

      • Juann Carlos Martinez Alvarez

        Alvaro, una pregunta: ¿las nuevas etiquetas de HTML5 , aparte de mejorar la legibilidad y la estructuración del código, ofrecen una mejor guía para “comprender” la página a los bots?. De ser significativas estas etiquetas para los bots, entiendo que un en un debería tener un significado muy inferior a un del .
        Y, por preguntar que no quede:

        ¿hasta qué punto son importantes las etiquetas para el trabajo de las arañas?. Te lo pregunto porque yo tiendo a usar muy poco las etiquetas , , , etc. Suelo utilizar la sintaxis y definir todas las propiedades de la clase en los archivos CSS incluyendo todo lo relativo a la letra. Uso para estructurar las etiquetas nuevas de HTML5, pero no les asigno propiedades CSS excepto las que se refieren a posicionar.

        (como ves no sé nada de bots.)

        • Juann Carlos Martinez Alvarez

          ahi va…. disqus ha interpretado las etiquetas…. eso es una debilidad de disqus.

          • Jajajaj, mejor un screeshot compi! disqus no podía ser perfecto…

          • Para mi es una fortaleza

        • Evidentemente interpretan todas las etiquetas, un bot al final necesita micro datos para poder ir desgranando toda la web e ir procesando la información, evidentemente ayuda a interpretar primero punto por la legibilidad del código = más velocidad de rastreo= optimizan parte del budget, puede ir dando saltos para poder entender todo, las etiquetas h´s al final es lo mismo, el orden importan aunque por desgracia no podemos realmente medir a ciencia cierta esto que comentas de un nav tiene menos importancia que un header, como piensas tu pienso yo, no debería tener la misma importancia, esto me surgió realmente no por las etiquetas h1 sino por los enlaces (teoría del primer enlace) pero siento decirte que todos los experimentos que hice al respecto no dan algo claro, hacer un experimento real no es fácil, así que te puedo contestar con suposiciones y lógica.

          Las etiquetas tienen que estar ordenadas, y seguir un razonamiento lógico, que ayude al lector y al bot, evidentemente google las diferencia y las trata diferente, así que claro, aunque realmente importante es un h1, el h2 también diría que hasta un h3-4.

          PD: Piensa que todo lo que sea una señal de posicionamiento, lo lee un bot y lo tiene en cuenta.
          Google no tiene más formas que primero rastrea, indexa y luego rankea. Espero que la respuesta te valga jeje.

  • Gracias @rubenalonsoes:disqus

    me alegra ver que no soy el único que quedó eclipsado por el gif 😉

  • Marco Antonio Perez Jimenez

    Jodeeeeer.
    Se me debe haber quedado la misma cara que si hace 20 años se me despelota delante la Kim Bassinger ( De incredulidad, estupefacción e incompresibilidad )
    Entiendo que son conocimientos que deben tenerse para triunfar en esto del blogging pero coño, así , solo con un café , se me ha quedado el cuerpo como cuando guardabas el TENTE ( Descompuesto )
    No puedo decir nada del articulo puesto que en cuanto leo la palabra css me da un ataque de gastroenteritis de caballo percheron y aparte, si el que escribe el articulo se hace la picha un lío,imaginate a mi, que todavía estoy intentando procesar que significa search console.
    Encima, luego aparece el malencarao ( Uy, perdón @gastre:disqus , que luego no se da por aludido ) con el tema del arbolito ( En lo del gif tiene mas razón que un santo ) y me deja con la duda de si fuma hierbas raras o las que fuma están caducadas ( Porque está claro que fumar, fuma si pone esos ejemplos ).
    En fin, que me tiro media vida para conseguir que Dean escriba cosas entendibles y vas tu y te pasas al otro lado ( Que no es el oscuro, ese es mi lado )
    Un abrazo, hermosa
    P.D.Para los jovenes, el tente es el antecesor de lego

    • Con tu comentario me siento aludido y viejuno (yo soy de los tentes y los airgamboys) y sé que en verdad te ha gustados mi ejemplo del árbol jaja.

      • Marco Antonio Perez Jimenez

        Es que somos viejunos compañero ( Uno mas que otro ) ahora, lo del ejemplo es para hacérselo mirar

        • Para el lunes próximo post te pongo otro. Quien es más viejuno?

          • Marco Antonio Perez Jimenez

            Mas viejuno yo, ahora que también soy mas guapo

          • Touché… Marco 1, Gastre 0… no hay más que hablar…

    • Ayyyyy mi maldito poeta!!
      No entendías lo de Kim?? venga ya Marco, jajajjaja
      Si te hubieras tomado tu cerveza con magdalenas para desayunar, lo habrías entendido todo y hasta hubieras aplaudido mi gif, jajaja.
      El post es entendible compi, lo que si es cierto y por eso traje a @disqus_xBVrOACY68:disqus , es que el tiene un nivel que ni tu ni yo hartos de Mahou, que quieres que te diga, jajajaj
      Besotes

      • Marco Antonio Perez Jimenez

        Mañana para el desayuno me tomo las magdalenas ( y si hace falta malacatones y mondarinas ) con la birra y como siga sin enterarme te monto un pollo que ni la Mila Jimenez al Matamoros.Jajajajajajajajaja

    • Juann Carlos Martinez Alvarez

      jijijijiji….marco…. Creo que debo ser mas antiguo que tú:

      LEGO es una empresa danesa creada en 1932 y los bloques de LEGO se comercializan con la forma que ahora conocemos desde 1954.
      Tente, por su parte, se creó en Barcelona en 1972 y funcionó hasta el año 2007. De esa eṕoca también es EXIN (la de Exin Castillos y el CineExin…..)

      yo tuve un LEGO con mas de 2000 piezas que me trajo mi padrino de suiza en mi 10 cumpleaños y que actualmente disfruta, y de qué manera, mi único sobrino.

      • Marco Antonio Perez Jimenez

        Pues así debe de ser.Imagino que debido a la economía tan bollante que teníamos por aquellas fechas, yo no lo conocí hasta bastante después .Como dice @gastre:disqus soy de la epoca de los Airgamboys, del geyperman y del cine Exim,del seiscientos y del ocho y medio, de los que se maravillaban con los r-8 deportivos y de quien vio crecer al 131 supermirafiori,de la mirinda y la casera en botella de cristal, de las bh y las torrot, de la puch condor y de la leche fresca.En fin, un carcamal.
        Me voy a abrir otra mahou que de la nostalgia se me empiezan a saltar las lagrimas

  • Marco Antonio Perez Jimenez

    Que me vas a decir a mi, que tengo cristales fotocromaticos en las gafas y llevo media hora como una ambulancia del Samur,jajajaja

  • Carlos Alberto Marcano Garcia

    Muchas gracias.. Muy buen artículo.
    A medida que el tiempo va avanzando, cada vez más hay que meterse en las cosas técnicas. Si no , nos iremos quedando.

    Hace tres años yo no sabia nada del mundo online, nada de hacer web, nada de seo, etc.
    Hoy en dia, todo lo que se, ha sido por probar y trastear con cosas.. Gracias a muchas horas invertidas leyendo.. también.

    Cuando uno se consigue con un artículo como este, sabe que tiene que leerlo y seguir aprendiendo.

    Hay artículos que a la segunda linea ya sabes que es más de lo mismo.

    Felicitaciones a ambos @gastre:disqus y @elblogdeanamata:disqus …

    Carlos de carlosmarca.com

    • Hola @carlosalbertomarcanogarcia:disqus
      Gracias por tu comentario y extiendo la felicitación a @disqus_xBVrOACY68:disqus que es quien lo ha escrito y no @gastre:disqus jajaja
      En esto toca aprender y aprender, aunque no se puede saber de todo en esta vida… por eso mola tener cerca a gente como Luis, que te pueda ayudar.
      Un besote!

      • Carlos Alberto Marcano Garcia

        Upss @elblogdeanamata:disqus disculpa el error… y felicitaciones a @disqus_xBVrOACY68:disqus

  • Buenas!!

    Con todo el amor del mundo, y desde la parte técnica que me encanta. Hay algunos matices que están mal o puntos que no son así, ya que hablamos de tecnicismos, hagamos las cosas bien.

    1º Robots: Añadiría mas términos como:

    – Especificaria la ruta si existe del sitemap.
    # Impedir que /permalink/feed/ sea indexado pues el feed de comentarios suele posicionarse antes de los post.
    # Impedir URLs terminadas en /trackback/ que sirven como Trackback URI (contenido duplicado).
    Disallow: /comments/feed
    Disallow: /*/feed/$
    Disallow: /*/feed/rss/$
    Disallow: /*/trackback/$
    Disallow: /*/*/feed/$
    Disallow: /*/*/feed/rss/$
    Disallow: /*/*/trackback/$
    Disallow: /*/*/*/feed/$
    Disallow: /*/*/*/feed/rss/$
    Disallow: /*/*/*/trackback/$

    2º 301 para todos los errores 404 esto no es así, es más en muchos casos coincide que una web con muchos errores 404, o bien por un fallo al migrar o alguien ha tocado sin saber, o directamente no sabe, por tanto seguramente la estructura de la web no sea buena y por tanto no está transmitiendo bien el juice por la web, por tanto:

    – Una url 404 ( es decir no existe ya) y no está indexada no hay que hacer absolutamente nada solo indicarle que está corregido.
    – Una url 404 (no existe ya) y está indexada hay que mirar si trae trafico, esta posicionada?, tiene juice realmente?, si todos son síes, ok busquemos algo relacionado, sino mejor seguir con ese contenido sino hay perjuicio.

    *Si la respuesta es no existe, está indexada, no trae trafico y no está posicionada bien, y no tiene enlaces directamente esa url la desindexaba, piensa que cuantos más 301 que no tengan sentido, peor, tanto en carga como en usabilidad.

    Ya luego habría que mirar otros casos concretos como: que tiene enlaces pero no trafico ni posicionamiento…etc

    3º Para hacer una auditoria interna no usaría broken link, sino screaming frog seo spider y el screaming frog log file analyser.

    4º Para pensar realmente en optimizar el crawl budget hay que ver si realmente hay un problema, la web es mediana o grande y puede existir un problema en gasto excesivo, un alto % de las webs que existen no tienen problemas en este sentido por el tamaño ya que google le sobra, de todas formas es bastante mas complejo de explicar y son bastantes mas punto a ver y todo va conectado.

    El caso de Ana sino hay algo grave no debería tener ningún problema de crawleo, tiene 86 paginas, con recursos y demás se queda muy lejos de lo que yo diría razón de peso para optimizar que son miles de urls. Además tiene errores de como distribuye enlaces internos como nofollow a contacto, pero no hay ni un noindex además que esta indexada, esto si que no tiene ningún sentido, sus paginas de cookies vale que no están indexadas (tiene un noindex ok)pero los enlaces están follow 🙁 tampoco tiene sentido, si ya están desindexado pon nofollow y no estaría demás bloquearla por robots para que no exista ni contenido ni url indexada.

    Por otro lado no está minificando bien el css y js por eso también tienes problemas de request. Sumome tiene un problema y es que consume mucho es de los recursos que más te retrasan la web de casi 1s de connect y wait.

    • Ostras @lvarorondn:disqus te has quedado agusto!! jajajaja
      Pues mira, me parece muy interesante todo lo que dices y a mi me gusta que haya debate y que todos aportemos…

      Yo, como he dicho, no entiendo mucho de esto, pero seguro que Luis si tiene más criterio que yo para darte una respuesta…

      Lo que sí te puedo decir, es que yo soy muy desastre en esto y posiblemente sea la causa de que no tengan sentido muchas cosas… jajajaja

      Un besote crack y mil gracias por tu aportación!

    • Buenas

      Como bien comentas, las mejoras posibles son aun muy grandes. Aquí solo se han cubierto 10 mejoras implementadas.

      Hemos intentando encontrar un equilibrio para que las personas que leen el blog puedan coger ideas y a partir de ahí implementar las mismas en su blog y así mejorar el posicionamiento orgánico.

      A no todo el mundo el resultado le va a salir igual pues dependemos de los motores de búsqueda y hay tantas variables que no controlamos que no podemos predecir el resultado.

      Consideramos que son ideas prácticas dado que muchas personas en el mundo del Marketing utilizan WordPress.

      Gracias por el feedback

      Un saludo

      • Buenas Luis,

        Si la idea la capto de primeras, lo que te intentaba decir, es que hay errores en el articulo y que el 99,9% de los lectores no les va servir de nada optimizar el budget, al igual que en este caso la correlación de mejora no es por esto, aclarar que la solución al 404 no es siempre un 301 como dices en el post, o que solo hay que corregir un h1, que por cierto en la home está mal, sino que el seo es meticuloso, y a la hora de explicar como el refrán: es mejor enseñar a pescar que traerte el pescado. No me digas como lo hago dime también el porqué. Se agradece mucho la intención, solo que había matices mal, independientemente de la idea.

  • Buenas!!

    Con todo el amor del mundo, y desde la parte técnica que me encanta. Hay algunos matices que están mal o puntos que no son así, ya que hablamos de tecnicismos, hagamos las cosas bien.

    1º Robots: Añadiría mas términos como:

    – Especificaria la ruta si existe del sitemap.
    # Impedir que /permalink/feed/ sea indexado pues el feed de comentarios suele posicionarse antes de los post.
    # Impedir URLs terminadas en /trackback/ que sirven como Trackback URI (contenido duplicado).
    Disallow: /comments/feed
    Disallow: /*/feed/$
    Disallow: /*/feed/rss/$
    Disallow: /*/trackback/$
    Disallow: /*/*/feed/$
    Disallow: /*/*/feed/rss/$
    Disallow: /*/*/trackback/$
    Disallow: /*/*/*/feed/$
    Disallow: /*/*/*/feed/rss/$
    Disallow: /*/*/*/trackback/$

    A parte de la propia guia de los bots para que entiendan donde no deben pasar y por donde sí en base a cada web.

    2º 301 para todos los errores 404 esto no es así, es más en muchos casos coincide que una web con muchos errores 404, o bien por un fallo al migrar o alguien ha tocado sin saber, o directamente no sabe, por tanto seguramente la estructura de la web no sea buena y por tanto no está transmitiendo bien el juice por la web, por tanto:

    – Una url 404 ( es decir no existe ya) y no está indexada no hay que hacer absolutamente nada solo indicarle que está corregido.
    – Una url 404 (no existe ya) y está indexada hay que mirar si trae trafico, esta posicionada?, tiene juice realmente?, si todos son síes, ok busquemos algo relacionado, sino mejor seguir con ese contenido sino hay perjuicio.

    *Si la respuesta es no existe, está indexada, no trae trafico y no está posicionada bien, y no tiene enlaces directamente esa url la desindexaba, piensa que cuantos más 301 que no tengan sentido, peor, tanto en carga como en usabilidad.

    Ya luego habría que mirar otros casos concretos como: que tiene enlaces pero no trafico ni posicionamiento…etc

    3º Para hacer una auditoria interna no usaría broken link, sino screaming frog seo spider y el screaming frog log file analyser.

    4º Para pensar realmente en optimizar el crawl budget hay que ver si realmente hay un problema, la web es mediana o grande y puede existir un problema en gasto excesivo, un alto % de las webs que existen no tienen problemas en este sentido por el tamaño ya que google le sobra, de todas formas es bastante mas complejo de explicar y son bastantes mas punto a ver y todo va conectado.

    El caso de Ana sino hay algo grave no debería tener ningún problema de crawleo, tiene 86 paginas, con recursos y demás se queda muy lejos de lo que yo diría razón de peso para optimizar que son miles de urls.

    Además tiene errores de como distribuye enlaces internos como nofollow a contacto, pero no hay ni un noindex además que esta indexada, esto si que no tiene ningún sentido, sus paginas de cookies vale que no están indexadas (tiene un noindex ok)pero los enlaces están follow 🙁 tampoco tiene sentido, si ya están desindexado pon nofollow y no estaría demás bloquearla por robots para que no exista ni contenido ni url indexada.

    Por otro lado no está minificando bien el css y js por eso también tienes problemas de request. Sumome tiene un problema y es que consume mucho es de los recursos que más te retrasan la web de casi 1s de connect y wait.

    Por otro lado la estructura de h´s sigue estando mal: http://prntscr.com/e5m7l5 (pantallazo de este articulo) y este de la home: http://prntscr.com/e5m889

    De verdad que solo quiero aportar y para nada juzgar o intentar estropear el articulo solo ayudar.
    pd: No creo que exista un seo no técnico, el seo es seo, solo depende del nivel de la persona que lo ejecute que sepa llevarlo hasta el extremo. Todo depende de los conocimientos.

    jajaja Ana, esta vez es gratis pero no soy barato eh 🙂 jajaja

  • Natalia Fernández Lara

    Hola Ana,

    Si tienes una web o blog está claro que debes prestar atención al SEO. Me gusta aprender cosas del tema, así que me parece muy interesante lo que cuenta Luis.

    No veas lo tiquismiquis que me he vuelto con los plugins y lo que puedo investigar (tiempo de carga, recursos que consume…) hasta decantarme por uno, vigilo el search console, si tengo errores 404… jejeje. Me ha sorprendido lo de los emojis, bueno es saberlo.

    Gracias por el artículo y por traer referencias de profesionales para estos asuntos técnicos.

    Un abrazo!

    • Hola Natalia!
      Gracias a ti por tu comentario…
      La verdad es que lo de los pluggins es un negocio para el propio WordPress y un abuso lo que hacemos la mayoría de los bloggers, porque claro, como todos nos recomiendan 20.000 pues los instalamos y listo.
      Luego no se quedan eliminados ni nada y cargamos nuestras web que da gusto…
      Me alegra que te haya gustado!
      Un abrazote

  • Juann Carlos Martinez Alvarez

    ¡¡Vaaaya…!!!!

    Me ha encantado.

    El caso es que estoy planeando empezar un blog en Abril y le estaba dando vueltas a si usar, o no, un CMS. Me estaba decantando por wordpress pero lo estoy destripando y no acabo de ver algunas cosas claras… Especialmente no me gusta el hecho de que los tres CMS que he destripado se lian a hacer peticiones HTTP y descargan megas y mas megas de código…

    Este artículo me acaba de dar una idea: Voy a escribir mi blog SIN USAR UN CMS. todo PHP, CSS, HTML y, para las florituras, jQuery.

    Pero los CMS me van ayudar un montón: voy a reutilizar algunas de las clases y funciones; especialmente si non de pocas decenas de líneas.

    En el trabajo que estoy terminando ahora ya he hecho esto de reutilizar clases y funciones reescritas por mi para el caso concreto. Valga como ejemplo la clase PHPmailer que es la que utiliza mucha gente ara la gestión de correo desde la página. Esta clase tiene cuatro mil líneas de código y hace toda la gestión del correo entrante y saliente. Yo la he reducido a una clase y tres funciones sueltas con no mas de 400 líneas de código. Esto significa que, cuando una página hace un require para cargar la clase para utilizarla SÓLO tiene que cargar un 10% del código que tendría que cargar si no la hubiera reescrito. Ademas la clase se ejecuta en el servidor solo cuando es necesaria y al cliente solo se le descarga un texto de aviso de que el correo le ha sido enviado.

    Escribir un blog sin usar un CMS va a ser divertido a la par que difícil… Pero a partir de abril voy a dedicar el resto del año a mí mismo y a aprender mucho mas. (Estos últimos 4 meses he sido tremendamente afortunado y he ganado el dinero suficiente para vivir casi dos años, aunque con muuucha frugalidad y parquedad rayana en lo paupérrimo)

    Por cierto, con el fin de ir generando algo de expectativa:

    Mi blog, página, coctelera, o lo que sea que vaya saliendo de mi magín tendrá como objetivo fomentar el uso racional de la tecnología y promover las relaciones personales FUERA de la red. Por ejemplo, promover el salir mas de cañas con los amigos (apagando el móvil, o, al menos, los datos) en lugar de perder horas en las redes sociales. También me propongo DISUADIR a mucha gente de hacerse una página web o un blog y que se limiten a inscribir sus negocios en Guías online que son mas que suficientes para la mayoría de los propósitos.

    Y…. un pequeño mensaje o idea para Ana Mata, Rubén Alonso y demás habitantes de “El Marketing Today”…. ¿¿¿¿¿Y si…. Y si…. dejárais a un lado vuestros blogs y os lanzárais a la aventura de publicar toda una señora revista online……?????. Tan solo necesitáis reunir vuestros talentos como escritores y a un buen informático, que ya tenéis uno: Luis Salazar.

    • Qué grande eres @juanncarlosmartinezalvarez:disqus !!
      Pues mira, si lo vas a hacer sin cms ni nada, serás diferente al igual que @gastre:disqus , que en esta marabunta de wordpress va el tío y lo hace en blogger, sí señor… con dos ovarinchis
      Me parece genial lo que vas a hacer de disuadir al público, porque hace falta cosas nuevas.
      Respecto a lo del Marketing Today, quién sabe cómo y dónde acabará, mientras sigamos pasándolo así de bien, me doy por satisfecha.
      Gracias como siempre por comentar… mi blog sin tus comentarios es como un día sin sol!
      Un besote

    • Gracias Juan Carlos.

      Siempre es bueno coger ideas de otros perfiles del sector Marketiniano

      En referencia al ejemplo que has puesto, mi web es 100% HTML plano con Templates HTML5 y CSS; el javascript custom en el footer.

      No he utilizado un CMS detrás, con lo que no hay peticiones a Bases de datos, pues mi idea no es publicar mucho contenido, pero si algo diferente.

      Cualquiera que acceda verá que con tan menos de 20 contenidos tengo un anchor diferente, para cada landing, en cada contenido. Combinando estos con palabras clave con 2-3 términos y long tail keywords igualmente.

      En Search Console los 200 anchors que muestra de máximo ya han sido sobrepasados. Ya de paso, comparto otra técnica para poder variar los anchor texts dentro del propio site, que es otro punto a favor del SEO.

      El problema para la mayoría de los sites hechos en WordPress es que el anchor que utilices en un contenido se replica en todo el sitio web y no genera anchors text diferentes.

      En referencia a la idea de la revista online, ahora mismo creo que tenemos demasiadas cosas entre manos todos, pero quien sabe.

      Gracias de nuevo

      Un saludo
      Luis

    • Realmente la curva de trabajo con respecto a resultados es muy mala para el caso que expones, es decir no renta, para eso escoge un cms, un theme limpio, arregla lo que tenga si fuera muy necesario, pero en seo no vas a notar mucha diferencia realmente. Tengo plantillas que cargan en 400ms:

      https://uploads.disquscdn.com/images/543428d289478b0976ccad64e11ca0a3abdbfa57729d26bfc3c219b04302a820.jpg

      No es mi especialidad la programación, pero a nivel de seo hay puntos mucho más claves e importantes donde si dedicaría el tiempo que necesitan al menos por ahora 🙂

      • Juann Carlos Martinez Alvarez

        Que razón tienes en lo de “la curva de trabajo”…. Soy plenamente consciente de que la productividad está plenamente asociada a la cantidad de tiempo que inviertes en realizar un trabajo. Los CMS tienen un doble beneficio: Acortar hasta un 90% el tiempo dedicado propiamente a la programación de la red y, por otra parte, dar acceso a la programación a personas con pocos conocimientos de programación pero con muy buenos conocimientos de posicionamiento y del negocio para el que escriben el sitio.

        De hecho, para el trabajho que ahora estoy terminado he empleado Jommla y Prestashop (y paquetes como access, contaplus, etc) lo que me ha permitido reducir el tiempo de programación a menos de tres semanas y pudiendo dedicar los 5 meses que me está llevando a estudiar a fondo el negocio y desarrollar una completa estrategia de implantación informática integral (web, almacén, contabilidad, etc.

        Pero ahora me propongo hacer algo mas: No se trata de lograr un gran posicionamiento ni siquiera uno pequeño. Si no que lo que busco es, de alguna manera, desarrollar un manejador de contenidos (CMS) completamente adaptado a mí, a mi estilo, a mi gusto… y que en un futuro me permita desarrollar webs con gran productividad pero sin tener que adaptarme a la filosofía de otros programadores.

        A partir de abril dispongo de un año o dos para ensayar mis ideas y añadir nuevos recursos a mis posibilidades (quiero profundizar mucho mas en Linux, pyton, … estrujar al servidor Apache hasta sacarle todo el jugo…). Entro en una etapa de estudio, no de productividad. Mas tarde volveré a la productividad porque el panadero cobra por la barra de pan y la compañía de la luz te la corta si no pagas el recibo.

        • Echa una ojeada a concrete5, a mi me gusta mucho.

          • Juann Carlos Martinez Alvarez

            Lo miraré, gracias. (Si tu lo recomiendas sé que se merece una oportunidad)

          • Si el compi @gastre:disqus lo dice, bueno será o al menos diferente…. ;D

  • José María Aranda

    Hola Ana! felicidades por el blog y enhorabuena por el articulo esta de 10. Muy buenas técnicas que desde luego pienso poner práctica. Gracias una vez más por compartir tu infinita sabiduría con nosotros 😛

    Buen finde 😉

    • Wooola José María!
      En este caso, la sabiduría era de @disqus_xBVrOACY68:disqus y no mía… ya me gustaría a mi haber sabido estas cosas antes, jajajaja.
      Yo simplemente, me dejé asesorar y probar todo lo que me decía

      Un abrazo!

  • Angelo Dimonti

    F E L I C I D A D E S
    Un gustazo emplear un domingo para aprender SEO, técnico o como se llame, muy interesante.
    Gracias para ti, Ana, y tu amigo Luis

    • Jajaja gracias Angelo
      Es SEO Técnico y me alegro que hayas aprendido y me dejes un comentario ;D
      Un besote

  • Pingback: #teknepostdata #24 – marketing, comunicación y desarrollo de públicos en cultura - Blog de Teknecultura()

  • Pingback: #teknepostdata #24 – màrqueting, comunicació i desenvolupament de públics en cultura - Bloc de Teknecultura()

  • Pingback: #teknepostdata #24 – màrqueting, comunicació i desenvolupament de públics en cultura - Teknecultura()

  • Pingback: #teknepostdata #24 – marketing, comunicación y desarrollo de públicos en cultura - Teknecultura()

  • Pingback: Reflexiones del Persianas Sobre El Plan de Marketing()