Bienvenido a Tecnohackers

Tecnohackers » Programacion » Programacion Webmaster » Seo (Moderador: Zentraedi)
 » 

Screaming Frog SEO Spider 8.1 - Auditoría SEO profesional



Autor Tema: Screaming Frog SEO Spider 8.1 - Auditoría SEO profesional  (Leído 1488 veces)

Desconectado SAT

  • Administrator
  • Master
  • *****
  • Mensajes: 5614
Programa de escritorio que puede instalar localmente en PC, Mac o Linux que rastrea enlaces de tus sitios web, imágenes, CSS, scripts y aplicaciones para evaluar el nivel SEO en tus sitios webs

You are not allowed to view links. Register or Login

Es rápido, flexible y puede rastrear muy rápidamente tus sitios webs, lo que le permite analizar los resultados en tiempo real. Reúne los datos clave del sitio para permitir que los SEO tomen decisiones reales

Encuentra enlaces rotos

Rastrear un sitio web al instante y encontrar enlaces rotos (404s) y errores de servidor. Exportar a granel los errores y las URL de origen para corregir o enviar a un desarrollador.

Redirecciones de auditoría

Busque redireccionamientos temporales y permanentes, identifique cadenas y bucles de redireccionamiento o cargue una lista de URL para auditar en una migración de sitio.

Analizar los títulos de la página y los metadatos

Analice los títulos de las páginas y las descripciones de metadatos durante un rastreo e identifique aquellos que son demasiado largos, cortos, desaparecidos o duplicados en su sitio.

Descubre el contenido duplicado

Descubra las URL duplicadas exactas con una comprobación algorítmica md5, elementos parcialmente duplicados como títulos de páginas, descripciones o encabezados y encuentre páginas de bajo contenido.

Extraer datos con XPath

Recopile todos los datos del HTML de una página web usando CSS Path, XPath o regex. Esto podría incluir meta tags sociales, encabezados adicionales, precios, SKUs o más!

Revisar Robots y Directivas

Vea las URL bloqueadas por robots.txt, meta robots o directivas X-Robots-Tag tales como ‘noindex’ o ‘nofollow’, así como canonicals y rel = “next” y rel = “prev”.

Generar Sitemaps XML

Crea rápidamente Sitemaps XML y Sitemaps XML de imagen, con configuración avanzada sobre URLs para incluir, última modificación, prioridad y frecuencia de cambio.

Integración con Google Analytics

Conéctese a la API de Google Analytics y obtenga los datos de usuario, como las sesiones o la tasa de rebote y las conversiones, las metas, las transacciones y los ingresos de las páginas de destino contra el rastreo.

Algunos de los datos recogidos por SEO Spider:

◦Errors – Client errors such as broken links & server errors (No responses, 4XX, 5XX)
◦Redirects – Permanent, temporary redirects (3XX responses) & JS redirects.
◦Blocked URLs – View & audit URLs disallowed by the robots.txt protocol.
◦Blocked Resources – View & audit blocked resources in rendering mode.
◦External Links – All external links and their status codes.
◦Protocol – Whether the URLs are secure (HTTPS) or insecure (HTTP).
◦URI Issues – Non ASCII characters, underscores, uppercase characters, parameters, or long URLs.
◦Duplicate Pages – Hash value / MD5checksums algorithmic check for exact duplicate pages.
◦Page Titles – Missing, duplicate, over 65 characters, short, pixel width truncation, same as h1, or multiple.
◦Meta Description – Missing, duplicate, over 156 characters, short, pixel width truncation or multiple.
◦Meta Keywords – Mainly for reference, as they are not used by Google, Bing or Yahoo.
◦File Size – Size of URLs & images.
◦Response Time.
◦Last-Modified Header.
◦Page Depth Level.
◦Word Count.
◦H1 – Missing, duplicate, over 70 characters, multiple.
◦H2 – Missing, duplicate, over 70 characters, multiple.
◦Meta Robots – Index, noindex, follow, nofollow, noarchive, nosnippet, noodp, noydir etc.
◦Meta Refresh – Including target page and time delay.
◦Canonical link element & canonical HTTP headers.
◦X-Robots-Tag.
◦rel=”next” and rel=”prev”.
◦Follow & Nofollow – At page and link level (true/false).
◦hreflang Attributes – Audit missing confirmation links, inconsistent & incorrect languages codes, non canonical hreflang and more.
◦Rendering – Crawl javascript frameworks like AngularJS and React, by crawling the rendered HTML after javascript has executed.
◦AJAX – Select to obey Google’s now deprecated AJAX Crawling Scheme.
◦Inlinks – All pages linking to a URI.
◦Outlinks – All pages a URI links out to.
◦Anchor Text – All link text. Alt text from images with links.
◦Images – All URIs with the image link & all images from a given page. Images over 100kb, missing alt text, alt text over 100 characters.
◦User-Agent Switcher – Crawl as Googlebot, Bingbot, Yahoo! Slurp, mobile user-agents or your own custom UA.
◦Configurable Accept-Language Header – Supply an Accept-Language HTTP header to crawl locale-adaptive content.
◦Redirect Chains – Discover redirect chains and loops.
◦Custom Source Code Search – Find anything you want in the source code of a website! Whether that’s Google Analytics code, specific text, or code etc.
◦Custom Extraction – Scrape any data from the HTML of a URL using XPath, CSS Path selectors or regex.
◦Google Analytics Integration – Connect to the Google Analytics API and pull in user and conversion data directly during a crawl.
◦Google Search Console Integration – Connect to the Google Search Analytics API and collect impression, click and average position data against URLs.
◦External Link Metrics – Pull external link metrics from Majestic, Ahrefs and Moz APIs into a crawl to perform content audits or profile links.
◦XML Sitemap Generator – Create an XML sitemap and an image sitemap using the SEO spider.
◦Custom robots.txt – Download, edit and test a site’s robots.txt using the new custom robots.txt.
◦Rendered Screen Shots – Fetch, view and analyse the rendered pages crawled

Windows Arquitectura: x32 & x64 Bits


You are not allowed to view links. Register or Login

Tags:
Tags:

 


SMF 2.0.19 | SMF © 2016, Simple Machines
Paginas Afiliadas
Twitter - FaceBook - Daraxblog
Designed by Smf Personal