Upload
natzir-turrado
View
20.359
Download
2
Embed Size (px)
Citation preview
@natzir9 / @seovision / #CW15
SEO PARA E-COMMERCE 3 puntos imprescindibles
@natzir9 / @seovision / #CW15
Índice
1 . Crawling (para grandes sitios) 2. Arquitectura de la Información 3. Migraciones y rediseños
1. Crawling
@natzir9 / @seovision / #CW15
CRAWLING 1 INDEXING 2 RANKING 3
1. Crawling
@natzir9 / @seovision / #CW15
1.2. Entendiendo el crawling
• Los BOTS recorren internet (web visible por links). No ven la deepweb aunque lo intenten.
• Lo hacen con sus bots, con browsers, con barras, etc.
• Guardan las URLs que encuentras en Servidores de URLs.
• Los sitios tienen asignado un crawl rate o crawl budget. Está determinado por la autoridad, facilidad de crawleo y calidad de la página.
@natzir9 / @seovision / #CW15
1. Crawling
1.2. Entendiendo el crawling
• Las páginas que se crawlean menos reciben menos tráfico y al revés, las páginas que se crawlean más reciben más tráfico.
• Pues ganar a una página con más autoridad teniendo más crawl rate.
@natzir9 / @seovision / #CW15
• Google usa varios crawlers y user-agents: - Googlebot (desktop y mobile) - Googlebot-mobile (featured phones) - Ver otros • Para organizar qué partes queremos que google rastree,
tenemos que tener en cuenta qué quiere ver el usuario y qué queremos enseñar al crawler.
- Por ejemplo las ordenaciones de productos las dejaremos para el usuario pero no para el crawler.
1.2. Entendiendo el crawling
@natzir9 / @seovision / #CW15
• Respuestas del servidor para no molestar al bot:
- 200 -> es la respuesta que siempre hay que dar - 3xx -> recomendable 301 (sigue 5 y luego da 404) - 4xx -> no le gusta. Podemos eliminar con 410 - 5xx -> no le gusta. Devolver 503 en caso de mantenimiento o por defecto hasta solucionar los errores. - 750 -> Ej. Errores de parada de Varnish
1.2. Entendiendo el crawling
@natzir9 / @seovision / #CW15
1.2. Entendiendo el crawling
@natzir9 / @seovision / #CW15
• El acceso del crawler lo podemos capar de varias formas:
- Capando IP o con un site cerrado por password - Para intranets: entornos de staging, pre, dev. - Capado por robots.txt de host:puerto - Capado por meta robots (noindex, follow) - Capado por meta en cabecera HTTP - Enlaces bloqueados (js + robots.txt)
BOT
CONTROL
1.3. Optimización del crawling
@natzir9 / @seovision / #CW15
1.3. Optimización del crawling
• URLs que le gustan al bot: - Efectivas: buena UX en página, con tráfico y no repetidas.
@natzir9 / @seovision / #CW15
1.3. Optimización del crawling
• Evita la “canonicalitis” y la “noindex, followitis”. Lo de la “noindex, nofollowitis” ya es de juzgado de guardia…
• Una URL por intención de búsqueda, el resto capadas a menos que exista mucho volumen de búsquedas y no canibalices. Ojo:
- tallas, colores, material, estado… - combinaciones de filtros permitidas.
• Links que quieras que se rastreen siempre accesibles. Mira las
páginas en modo texto en caché (o navega con Lynx) y no hagas caso del fetch & render para esto. Ej: siguiente diapo
@natzir9 / @seovision / #CW15
1.3. Optimización del crawling
PROBLEM?
@natzir9 / @seovision / #CW15
1.3. Optimización del crawling
@natzir9 / @seovision / #CW15
1.3. Optimización del crawling
• Gestión de stocks: ¿Vas a volverlo a tener?
- SI · 200 y muestra similares (crosselling/upselling) - NO: ¿Tienes productos similares? · SI + 200 y crosselling/upselling. Compruébalas cada 3/6 meses + 301 solo a similares y nunca a home = soft 404 · NO + 410 Mejor solución en mala UX pero ojo con el crawl rate
@natzir9 / @seovision / #CW15
1.3. Optimización del crawling
• Paginados: ¿Pues cargar todos en una página en menos de 2-3s?
- SI · View All: Paginados canonical + enlace a la view all - NO: ¿Pierden mucho tiempo los bots? · SI + Robots.txt (todas o a partir de cierto número) · NO + Rel= Next, Prev (no uses canonical ni noindex, follow)
@natzir9 / @seovision / #CW15
1.3. Optimización del crawling
• Control de parámetros (querystrings, sessions): - Ordenaciones, campañas, búsquedas y otras funcionalidades.
• AI: - 3 niveles (distancia desde la home =! número de directorios) - Potencia las zonas que interesen por negocio (link sculpting) - Apóyate en sitemaps HTML (ayudan a acortar distancias) • Y siempre, siempre, siempre analiza los logs dejados por los
bots antes de tomar una decisión.
@natzir9 / @seovision / #CW15
1.3. Optimización del crawling
@natzir9 / @seovision / #CW15
BOT
CONTROL
1.3. Optimización del crawling
@natzir9 / @seovision / #CW15
• Hay que saber diferenciar entre los tiempos de descarga de una página para el bot y para el usuario. Por ejemplo, una página puede tardar en descargarse 200ms para el bot y 20s al usuario.
• El impacto directo en SEO es lo que tarda una página en ser leída
por el bot porque afecta al crawling (TTFB + descarga). Intentad tener TTFB de 200ms (en SSL difícil). Impacto indirecto en SEO, mala perfomance = pogo-sticking del user contra la SERP.
• Google es más restrictivo en mobile que en desktop y podría incluir el TTI en sus factores de ranking mobile. 1.4. El performance y el crawling
@natzir9 / @seovision / #CW15
1.4. El performance y el crawling
@natzir9 / @seovision / #CW15
1.4. El performance y el crawling
@natzir9 / @seovision / #CW15
1.4. El performance y el crawling
@natzir9 / @seovision / #CW15
1.4. El performance y el crawling
@natzir9 / @seovision / #CW15
1.4. El performance y el crawling
• Devolviendo tiempos de respuesta rápidos en el HTML - imágenes e iconos (css sprites, escalado, compresión y cacheado) - unificar minimizar y cachear js y css • Paralelizar peticiones • Resolución de DNS rápida (prefetching, minimización de peticiones,
CNAME…) • Cacheo mediante proxys • Generación de HTMLs estáticos (render del html si es js) • ETAGS para dinámicos • Expiración en cabeceras • …
@natzir9 / @seovision / #CW15
• Es importante entender como trata Google los links:
- Accesibles - No repetir el mismo <a href> en la página (a menos que te interese pasar más peso y ojo con imágenes) - Según la situación del link en el layout. Over the fold, entre contenido, link en imágenes. - No usar un número excesivo de links por páginas (300) - Anchoring variado
1.5. Crawl/Link Sculpting
@natzir9 / @seovision / #CW15
1.5. Crawl/Link Sculpting
@natzir9 / @seovision / #CW15
1.5. Crawl/Link Sculpting
@natzir9 / @seovision / #CW15
1.5. Crawl/Link Sculpting
@natzir9 / @seovision / #CW15
1.5. Crawl/Link Sculpting
@natzir9 / @seovision / #CW15
1.5. Crawl/Link Sculpting
@natzir9 / @seovision / #CW15
• Crosselling y Upselling - Son similares a crosslinks pero orientados a convertir. - Elegiremos otras búsquedas hermanas. - Estudiaremos cómo pasar mas linkjuice ( Autoridad) - Links accesibles. - Que estén próximos a los resultados o al producto. - En producto podemos pintar unos a productos hermanos por características. - Pintaremos un upselling para poder vender un segmento más alto o producto más completo.
1.5. Crawl/Link Sculpting
@natzir9 / @seovision / #CW15
1.5. Crawl/Link Sculpting
@natzir9 / @seovision / #CW15
• El robots desaparece o se modifica: - Utiliza la tool Robotto, cachea el Robots.txt, si falla un 503 - Doble capado noindex, follow • Se crean facetas sin avisar al SEO: - Monitoriza con logs nuevas secciones descubiertas. • % elevado de URLs con errores (4XX, 5XX, 7XX ) o excesivas 3XX. • Enlaces no accesibles • Canonical + noindex : te puede pasar el noindex a la canonical • Exceso de URLs baja calidad. Ej: siguiente diapo.
1.6. Problemas comunes
@natzir9 / @seovision / #CW15
1.6. Problemas comunes
2. Arquitectura de la Información
@natzir9 / @seovision / #CW15
2. Arquitectura de la Información
Estructurar información haciendo que los usuarios la encuentren intuitivamente y dar a los bots lo que queremos indexar. Daniel Pinillos Carrasco – UX + SEO
Diseño estructural del espacio informacional para facilitar el acceso intuitivo a los contenidos. Jesse James Garret - UX
@natzir9 / @seovision / #CW15
• Sistemas de organización: estructuran según clasificación, ej: tipo de usuario, fechas… • Sistemas de navegación: permiten movernos de forma cómoda por el sitio. Jerarquica, facetada • Sistemas de etiquetado: categorizan la información en el lenguaje de los usuarios. • Sistemas de búsqueda: recuperan la información.
2.1. Componentes de la AI
@natzir9 / @seovision / #CW15
• Navegación jerárquica:
- Accesible - Consistente - Indexable - Arriba en el layout
2.2. Optimización SEO de la AI
@natzir9 / @seovision / #CW15
• Navegación facetada:
- Accesible - Usable - Informativa (filtro seleccionado) - Indexable o no según reglas
2.2. Optimización SEO de la AI
@natzir9 / @seovision / #CW15
• Migas interactivas: - Que contengan toda la ruta real - Markup de breadcrumb - Links accesibles o no según interese (para que el bot avance verticalmente)
2.2. Optimización SEO de la AI
@natzir9 / @seovision / #CW15
• Naming y anchoring:
- Debemos poner los nombres correctos a los links de navegación. - Primero UX luego SEO. - Ojo con: · Sobreoptimizar anchorings de enlaces. · Alts de imágenes que cuentan como anchor. · Repetir dos links en misma URL.
2.2. Optimización SEO de la AI
@natzir9 / @seovision / #CW15
• Titles de etiquetado:
- Únicos para evitar canibalizaciones - 60 caracteres aprox (ahora píxels) - Automáticos y luego manuales - Optimizados para el click o call to action - Uso de verbos que ayuden a persuadir - Ejemplo de regla: · comprar [BMW] [serie 3] [diesel] de [segunda mano] en [Madrid] · micoche.com/segunda-mano/provincia/bmw/serie-3/f/diesel
2.2. Optimización SEO de la AI
@natzir9 / @seovision / #CW15
2.2. Optimización SEO de la AI
@natzir9 / @seovision / #CW15
• Descriptions de etiquetado (más persuasión que SEO)
- Únicas y 155 caracteres aprox (tool) - Automáticos y luego manuales en las que interesen - Con info concreta del listado o producto - Persuasivas. Uso de verbos y orientado al click - Poner propuesta de valor del producto (entrega 24h, devolución gratis…)
2.2. Optimización SEO de la AI
@natzir9 / @seovision / #CW15
• Sistema de búsqueda - Buscador que pueda indexar lo que queramos - Suggest en la búsqueda · URL: /s/keyword-de-búsqueda (capara por robots disallow: /s/ y meta noindex ‘porsiaca’) - Podemos indexar búsquedas repetidas si enriquecemos (no es lo más recomendablea ahora) - User & Keyword Research para sacar topics de los que hablar
2.2. Optimización SEO de la AI
@natzir9 / @seovision / #CW15
• Analizar a tus usuarios: - encuestas, testing, investigación contextual, estudios de mercado, focus groups…. sal a la calle!
• Modelado de personajes y definición de metas y tareas de usuario: - Comprar un producto, lead, permanencia, contacto.
• User & Keyword research. - Analiza intenciones de búsqueda - Analiza keywords por conversión y volumen - Busca la oportunidad (kw difficulty con Moz, Semrush, Sistrix)
2.3. User Research
@natzir9 / @seovision / #CW15
2.3. User Research
@natzir9 / @seovision / #CW15
2.3. User Research
@natzir9 / @seovision / #CW15
2.3. User Research
• En tu Excel de keywords añade: - Intención de búsqueda - Prioridad (cerca de la conversión) - Tipo de búsqueda: · Informativa · Navegacional · Transaccional · Multimedia • Completa tu personaje con esta info. • ¡Ahora ya tienes la foto real de tu usuario!
+
@natzir9 / @seovision / #CW15
2.4. AI en el ciclo de compra
URLs Contenidos informativos >
URLs Contenidos transaccionales > URLs Contenidos experienciales >
@natzir9 / @seovision / #CW15
2.5. Investigación de topics e intenciones
INVESTIGACIÓN LIMPIEZA Y CLUSTERIZADO
VOLUMEN, COMPETENCIA Y
TENDENCIAS
@natzir9 / @seovision / #CW15
2.5. Investigación de topics e intenciones
@natzir9 / @seovision / #CW15
2.5. Investigación de topics e intenciones
@natzir9 / @seovision / #CW15
2.6. Mapa de AI
• Crea un mapa mental (pe: Xmind) teniendo en cuenta:
- Árbol de tu web actual (si tienes) - Lo que conozcas del producto - Lo tienen tus competidores - Patrones de búsqueda
@natzir9 / @seovision / #CW15
2.6. Mapa de AI
@natzir9 / @seovision / #CW15
2.6. Mapa de AI
• URLs indexables:
- /segunda-mano - /segunda-mano/provincia - /segunda-mano/provincia/berlina - /segunda-mano/provincia/bmw - /segunda-mano/provincia/bmw/serie-3/
@natzir9 / @seovision / #CW15
2.6. Mapa de AI
• URLs indexables: - /segunda-mano/provincia/bmw/serie-3/f/diesel (cuidado con canibalización. Indexar más tarde) - /segunda-mano/provincia/bmw/serie-/f/diesel/e/barato (cuidado con canibalización. Indexar más tarde) - /segunda-mano/provincia/bmw/serie-3/p-2/ (indexar solo las 5 primeras páginas)
@natzir9 / @seovision / #CW15
2.6. Mapa de AI
• URLs NO indexables: - /segunda-mano/provincia/bmw/serie-3/f/diesel,5-puertas (disallow: *,* o bloqueo del enlace con ajax/js capado) - /segunda-mano/provincia/bmw/serie-3/p-6/ (disallow: */p-* , meta noindex, follow según consumo del bot) /segunda-mano/provincia/bmw/serie-3/f/diesel/o/mas-barato (disallow: */o/* o bloqueo del enlace con ajax/js capado)
@natzir9 / @seovision / #CW15
2.7. Optimización y Testing de AI
CARD SORT CERRADO TREE TEST CARD SORT ABIERTO
• El usuario agrupa libremente
• Para descubrir una AI útil para el user
• El usuario agrupa en grupos cerrados
• Para verificar una AI
• El usuario busca en una AI sin diseño elementos que le preguntan
• Para mejorar la findability de una AI
@natzir9 / @seovision / #CW15
2.7. Optimización y Testing de AI
@natzir9 / @seovision / #CW15
2.8. Caso real
• Mejora del negocio
• Mejora en SEO
@natzir9 / @seovision / #CW15
2.8. Caso real
3. Migraciones y rediseños
@natzir9 / @seovision / #CW15
3. Migraciones y rediseños
@natzir9 / @seovision / #CW15
3. Migraciones y rediseños
Web con todas las facetas abiertas
@natzir9 / @seovision / #CW15
3. Migraciones y rediseños
@natzir9 / @seovision / #CW15
3. Migraciones y rediseños
@natzir9 / @seovision / #CW15
3. Migraciones y rediseños
@natzir9 / @seovision / #CW15
3. Migraciones y rediseños
@natzir9 / @seovision / #CW15
3.1. Checklist de migración
• Hemos preparado este checklist para que no se te pase nada. • Algunos pasos importantes son: - Inventario de URLs viejas - Inventario de URLs nuevas - Macheo de redirecciones - Configuración de sistemas - Canonical y luego redirección - Validación y seguimiento - Emulación y crawleo
@natzir9 / @seovision / #CW15
3.2. Seguimiento de migraciones
• Crawlea el sitio antes y después para comparar los crawls. Deepcrawl, Sistrix o Semrush (para sitios peques).
• Preferiblemente crawlea el antes de migrar en un entorno de desarrollo. Puedes hacerlo con Xenu, Deepcrawl, Screamingfrog…
• Verifica que las redirecciones son directas. Coge una muestra de URLs y verifícalo fácilmente con RedirectPath para Chrome.
• Cuando salgas mira las páginas en las que se está accediendo con el RealTime de Analytics y con logs.
@natzir9 / @seovision / #CW15
3.2. Seguimiento de migraciones
• Trakea posiciones y visibilidad (Sistrix o Semrush).
• Acuérdate de indicar el cambio de dominio/subdominio si hay en SearchConsole.
• El Sitemap.xml súbelo al tiempo y separado por secciones para ver la indexación de cada una. Ojo con urls erroneas o viejas!
• Páginas que se hayan indexado por error elimínalas en bulk desde Search Console o crea un Sitemap-error.xml y que las URLs devuelvan 410 para que desaparezcan.
@natzir9 / @seovision / #CW15
3.3. Problemas comunes
• Mala configuración de sistemas. Errores 503, 750 en Varnish, 404. • No mantener ni actualizar el nuevo robots.txt. • Abrir a buscadores entorno de staging. • Reglas de redirección mal hechas, redirecciones no directas y no 301. • Sitemaps.xml contra URLs que no son las finales o no son accesibles
(4XX, 5XX, noindex). Gbot acabará ignorando los sitemaps. • Enlaces onsite no actualizados a nuevas urls.
Ya estás listo para domar a Google, y si no…
Natzir Turrado Daniel Pinillos Lino Uruñuela
@natzir9 @seovision @errioxa
…better call FunnelPunk