El Blog para Webmasters
Noticias en castellano sobre el rastreo e indexación de sitios web en el buscador Google
La búsqueda en Twitter y su PageRank. Vídeos de Matt Cutts.
miércoles, 19 de agosto de 2009
Tenéis algunas preguntas sobre Google y Twitter. Bueno esta semana Matt Cutts responde a algunas cuestiones de los usuarios sobre ambos por medio de sus vídeos, que ahora os acercamos con subtítulos en español. El primero de ellos aborda la cuestión sobre la búsqueda en Google y en Twitter y el segundo sobre los factores que determinan Pagerank de una página de Twitter. Y como siempre, recordad que si los subtítulos no aparecen de forma automática, podéis seleccionarlos desde el menú en la esquina derecha de la pantalla.
¿Qué medio de búsqueda ofrece información más fiable, Google o Twitter?
¿Qué factores determinan el PageRank de una página de Twitter?
Transcripción de ¿Qué medio de búsqueda ofrece información más fiable, Google o Twitter?
Tenemos una pregunta especulativa desde Martino en Trento (Italia). Nos preguntan, "¿Qué medio de búsqueda ofrece información más fiable, Google o Twitter?" Twitter tiene muchas posibilidades de uso. Es genial para noticias en tiempo real, o para preguntar a tus amigos. En Google, por otro lado, intentamos ofrecer información fiable. Si buscas por fecha, Twitter es fantástico. Si quieres respuestas a preguntas que llevan ahí un poco de tiempo, Google es genial. Ya sabes, prueba ambos en diferentes situaciones. Si no tienes muchos amigos, entonces no obtendrás las respuestas que esperabas en Twitter. Tampoco me sorprendería si los spammers ven mucho tráfico de repente en Twitter y se avalanzan para tratar de meterse por ahí. Así que son diferentes. Son útiles para cosas diferentes. Cada uno debería usar el que mejor le funcione.
Transcripción de ¿Qué factores determinan el PageRank de una página de Twitter?
Tenemos una pregunta sobre Twitter de Atul Arora, de Fremont (California), que dice: ¿Qué factores determinan el PageRank de una página de Twitter?, es decir, ¿lo determinan cosas como los seguidores o los backlinks? Tratamos las páginas de Twitter como cualquier otra página web. Exactamente igual. No miramos cuántos seguidores tienes en Twitter, miramos cuántos enlaces tienes en tu perfil o en tus tweets. Así que ya sabes, si tienes mucho PageRank o muchos enlaces a un mensaje de estado en concreto que sea muy interesante, es más posible que aparezca en los resultados de búsqueda. Pero no miramos cosas como los seguidores o algo de ese estilo. Hemos visto que se puede GAMED fácilmente a los seguidores en muchos sitios. Así que lo que encontramos suelen ser backlinks y la reputación de esos backlinks es cómo calculamos la reputación de la página en sí, en Twitter, tal y como sería en cualquier otro sitio de la web.
Publicado por Esperanza Navas, equipo de Calidad de búsqueda
SMX Advanced. Sesión de preguntas y respuestas
lunes, 17 de agosto de 2009
A principios de este verano se celebró el
SMX Advanced
[inglés]
en Seattle. Allí me hicieron una serie de preguntas para las que tuve que hacer un poco de investigación. Y, como prometí, aquí están las respuestas:
P.
Hemos oído que Google
indexa mejor ahora
el
contenido Flash
. Si tengo un archivo Flash que obtiene contenido de un archivo externo y el archivo externo está bloqueado por
robots.txt
, ¿indexará Google dicho contenido (que no está bloqueado directamente por robots.txt) o no?
R.
No vamos a ser capaces de acceder a ese contenido si se encuentra en un archivo que bloquea robots.txt, por lo tanto, a pesar de que el contenido será visible para los usuarios (a través del Flash), los robots no podrán acceder al contenido. Para obtener más detalles al respecto, puedes
consultar nuestra entrada sobre indexación de contenido Flash cargado desde fuentes externas
.
P.
Los sitios que personalizan contenido según el comportamiento de los usuarios o "clickstream" son cada vez más comunes. Si un usuario hace clic en mi sitio mediante una página de resultados de búsqueda, ¿se puede personalizar el contenido de esa página o redirigir al usuario según la consulta de búsqueda que realizó? ¿O se consideraría
encubrimiento (cloaking)
? Por ejemplo, si alguien busca [colgante camafeo vintage], pero hace clic en una página web general sobre joyería vintage, ¿puedo redirigir a mi página específica sobre colgantes camafeo vintage, ya que sé que es éso lo que estaba buscando?
R.
Si rediriges o sirves al usuario un contenido diferente al que Googlebot vería en esa URL (por ejemplo, según el referrer de google.com o la cadena de consulta), se consideraría encubrimiento (cloaking). Si el usuario decide hacer clic en el resultado "joyas vintage", deberías mostrarle la página en la que ha hecho clic, aun creyendo que otra página podría ser más adecuada. Siempre puedes enlazar entre páginas relacionadas (es decir, enlazar a tu página de "joyería vintage" desde tu página de "camafeos vintage" y viceversa, de modo que cualquier persona pueda navegar entre ambas páginas. Pero no creas que eres tú quien debe tomar esa decisión por el usuario.
P.
Aunque se trata de mostrar un contenido diferente a diferentes usuarios, Google considera ético el hecho de probar sitios web (tales pruebas A/B o multivariante) una práctica legítima que respeta las Directrices para webmasters. Una de las razones de esto es porque mientras los motores de búsqueda sólo pueden ver el contenido original de la página y no el de las diferentes variaciones, también habrá un porcentaje de usuarios que verán ese mismo contenido, por lo que esta técnica no está orientada específicamente a los motores de búsqueda.
Sin embargo, algunos servicios de pruebas recomiendan enviar el 100% del tráfico de un sitio web a la combinación ganadora tras realizarse el experimento, para verificar que las tasas de conversión se mantienen altas. ¿Cómo encaja todo esto dentro de la definición de encubrimiento (cloaking) de Google?
R.
Está bien ejecutar el 100% del tráfico a través de una combinación durante un período de tiempo breve, para verificar los resultados de tu experimento. Sin embargo, como ya
hemos afirmado
anteriormente, "si encontramos un sitio que ejecuta una única combinación no original en un 100% durante varios meses ... es posible que eliminemos el sitio de nuestro índice." Si deseas confirmar los resultados de tu experimento, pero estás preocupado por "cuanto tiempo se considera demasiado tiempo", considera la posibilidad de realizar una prueba de seguimiento en la que envías la mayor parte de tu tráfico a través de tu combinación ganadora mientras que aún envías un pequeño porcentaje a la página original como forma de control.
Esto es lo que Google recomienda
con su propia herramienta de prueba, Website Optimizer.
P.
Si la codificación de caracteres especificada en la cabecera HTTP de una página es diferente a la especificada en la etiqueta <meta equiv = "Content-Type"> ¿a cuál prestará atención Google?
R.
Tendremos a ambas en cuenta, y también miraremos un poco el contenido de la página. La mayoría de los navegadores dan prioridad a la codificación específica en la cabecera HTTP, antes que a la que se especifica en el código HTML, si ambas son válidas pero diferentes. Sin embargo, si eres consciente de que son diferentes, lo mejor es que elijas uno de ellos.
P.
¿Cómo trata Google los caracteres internacionales con codificación UTF-8 de byte triple en una dirección URL (como por ejemplo los caracteres del chino o del japonés)? Este tipo de caracteres dan problemas en algunas aplicaciones, ¿puede Google procesarlos correctamente? ¿Google comprende las palabras clave codificadas de esta manera? Es decir, se entiende que
www.example.com/%E9%9D%B4
es tan relevante como
www.example.com/shoes
?
R.
Podemos interpretar correctamente caracteres UTF-8 con código % de escape en las URL y en los parámetros de consulta, y entendemos las palabras clave que están codificadas así. Para caracteres internacionales en nombres de dominio, recomendamos utilizar
punycode
en lugar de codificación con código de escape %, ya que algunos navegadores más antiguos (como IE6) no soportan nombres de dominio con caracteres que no sean ASCII.
¿Tienes alguna pregunta más? ¡Pásate por nuestro
foro
!
Publicado por Susan Moskwa, Webmaster Trends Analyst. Traducido por Cristina, equipo de Calidad de búsqueda.
Ubicación del servidor y metaetiquetas geográficas. Vídeos de Matt Cutts.
jueves, 13 de agosto de 2009
Esta semana os acercamos otra entrega de vídeos de Matt Cutts con subtítulos en español. El primero de ellos trata sobre cómo afecta la ubicación del servidor a la hora de posicionarse en los resultados de búsqueda de Google. El segundo trata sobre el efecto de las metaetiquetas geográficas en los resultados. Recordad que si los subtítulos en español no aparecen de forma automática, podéis seleccionarlos desde el menú en la esquina derecha de la pantalla. Al final del artículo podéis encontrar las transcripciones de ambos vídeos.
¿Qué impacto tiene la ubicación del servidor en el posicionamiento en los resultados de búsqueda de Google?
¿Cómo afectan los metaetiquetas geográficas a los resultados de búsqueda?
Transcripción de ¿Qué impacto tiene la ubicación del servidor en el posicionamiento en los resultados de búsqueda de Google?
Tenemos una pregunta de Rob Lewicki, desde Toronto (Ontario). Rob pregunta: ¿Qué impacto tiene la ubicación del servidor en el posicionamiento en Google?
Bueno, hace mucho tiempo en los comienzos de Google, tiene gracia porque sólo podías posicionarte para diferentes países según el tld. Así que, .fr significaba que eras francés y eso es todo lo que sabían y en 2000-2001, empezamos a mirar dónde estaba ubicado el servidor, la dirección IP, para decir "no termina en .fr pero está situado en Francia", según la IP. Y puede que esto sea muy útil para los usuarios franceses. Esta es una de las primeras formas de afectar al posicionamiento en Google. Bueno, si estás en los EEUU, tu sitio web está allí y nunca sales de los EEUU, puede que nunca notes estos factores. Pero la ubicación del servidor, tanto si está en los EEUU, Francia, Alemania, Reino Unido o Canadá o cualquier otro sitio, puede determinar el posicionamiento, así que por ejemplo si vas a google.com y escribes "banco" tendrás unos resultados diferentes que si vas a google.com.au y escribes "banco" o vas google.co.uk y escribes "banco". Así que realmente intentamos dar los resultados más relevantes a cada usuario en cada país y la ubicación del servidor, basándonos en la IP, es un factor a tener en cuenta.
Transcripción de ¿Cómo afectan los metaetiquetas geográficas a los resultados de búsqueda?
[Risas] Puedes decir que soy de Kentucky porque nunca sé pronunciar los nombres de la gente. Voy a probar con Jochen en Stuttgart (Alemania), que pregunta: "¿Cómo afectan las metaetiquetas geográficas a los resultados de búsqueda?"
Y la respuesta es que no es algo que miremos detenidamente. Solemos mirar las direcciones IP, el gTLD o el ccTLD, o lo que es lo mismo, el código TLD de país. Por ejemplo, .fr o .de. Hay una opción en las Herramientas para webmasters de Google para indicar que tu sitio no es un simple .com, si no un .com británico. O un .com que realmente pertenece a Nueva Zelanda o Australia. Así que puedes marcar y decir, vale este .com está relacionado con Alemania o Canadá o el país que sea. Pero normalmente las metaetiquetas geográficas no son útiles y no les damos mucha importancia. Así que me esforzaría más en tener un nombre de dominio apropiado o la IP correcta si puedes y, luego, si tienes contenido geolocalizado, incluso si es un subdominio o un subdirectorio, especificarlo en las Herramientas para webmasters y decir que esto es relevante para este país en concreto.
Publicado por Esperanza Navas, equipo de Calidad de búsqueda.
Ayúdanos a probar infraestructura de nueva generación
miércoles, 12 de agosto de 2009
Para construir un buen motor de búsqueda se necesita:
1. Rastrear una buena parte de la web.
2. Indexar las páginas resultantes y contabilizar su reputación.
3. Posicionar y mostrar las páginas más relevantes para las búsquedas de los usuarios tan rápido como sea posible.
Durante los últimos meses, un buen número de Googlers han estado trabajando en un proyecto secreto: una arquitectura de nueva generación para la búsqueda web de Google. Este es el primer paso de un proceso que nos permitirá aumentar en tamaño, velocidad, exactitud y amplitud, así como en otros aspectos. La nueva infraestructura se asienta "bajo el paraguas" del motor de búsqueda de Google, lo que significa que la mayoría de los usuarios no notarán ninguna diferencia en los resultados de búsqueda. Sin embargo, los desarrolladores web y otros usuarios avanzados podrían notar algunas diferencias, así que ofrecemos una vista previa a desarrolladores web para poder obtener diferentes opiniones y comentarios al respecto.
Algunas partes de este sistema no están totalmente terminadas, así que estamos abiertos a comentarios de cualquier tipo. Te invitamos a que visites la vista previa para desarrolladores web de la nueva infraestructura de Google en este enlace
http://www2.sandbox.google.com/
y pruebes algunas búsquedas.
Por el momento, sólo queremos vuestra opinión sobre las
diferencias
entre los resultados de búsqueda actuales de Google y los del nuevo sistema. Además, si lo deseas, puedes aportar comentarios más elaborados ("Este tipo de sitios web parece que aparecen mejor o peor posicionados en el nuevo sistema") como complemento a "Este determinado sitio web debería o no posicionarse para esta búsqueda". Los ingenieros leerán los comentarios, aunque no enviarán respuestas.
Aquí explicamos cómo enviar comentarios: Haz una búsqueda en
http://www2.sandbox.google.com
/ y busca un enlace al final de la página de resultados que dice
"¿No está satisfecho? Ayúdenos a mejorar".
Haz clic en ese enlace, escribe tus comentarios en la caja de texto y luego incluye la palabra
caffeine
en cualquier parte dentro de la caja.
Si quieres enviar comentarios para un idioma o país en concreto, estaremos encantados. Es un poco más complicado obtener esos resultados en
http://www2.sandbox.google.com/
, ya que necesitarás modificar los
parámetros de la consulta
[inglés]
de forma manual.
Puedes cambiar los siguientes valores:
hl = idioma
gl = código de país
Un ejemplo en español de México:
http://www2.sandbox.google.com/search?hl=es&gl=mx&q=de+colores
¡Y no os olvidéis de incluir la palabra
caffeine
en el cuadro de texto! :)
¡Gracias por adelantado por vuestros comentarios!
Publicado por Sitaram Iyer, Staff Software Engineer, y Matt Cutts, Principal Engineer (Traducido por Esperanza, equipo de Calidad de búsqueda)
Optimización del rastreo y la indexación
martes, 11 de agosto de 2009
Muchas de las preguntas sobre arquitectura de sitios web, rastreo e indexación, incluso preguntas sobre posicionamiento, pueden reducirse a una sola pregunta:
¿Es fácil para los motores de búsqueda rastrear tu sitio web?
Hemos hablado sobre este tema recientemente, y a continuación encontrarás nuestra presentación y algunos de los puntos principales sobre este tema:
Internet es un lugar enorme
[inglés]
donde se está creando contenido nuevo todo el tiempo. Google cuenta con un número finito de recursos, así que cuando se enfrentan a la casi infinita cantidad de contenido que está disponible en la red, Googlebot sólo es capaz de encontrar y rastrear un porcentaje de dicho contenido. Y de los contenidos que hemos rastreado, sólo podemos indexar una parte.
Las URL actúan como puentes entre tu sitio web y el robot del motor de búsqueda. Los robots tienen que ser capaces de encontrar y cruzar esos puentes (por ejemplo, encontrar y rastrear tus URL) con el fin de llegar al contenido de tu sitio web. Si tus URL son complicadas o redundantes, los robots gastarán su tiempo en localizar y recordar el camino a seguir hasta tus URL; pero si están bien organizadas y llevan directamente al contenido, los robots utilizarán su tiempo para acceder a tu contenido, en lugar de rastrear páginas vacías o rastrear el mismo contenido una y otra vez a través de diferentes URL.
En la presentación anterior puedes ver algunos ejemplos de qué no hacer, ejemplos reales (aunque hemos cambiado los nombres) de "hacks" y códigos caseros en URL, parámetros de enmascaramiento como parte de la ruta de URL, espacios infinitos de rastreo y mucho más. También encontrarás algunas recomendaciones para enderezar ese laberinto de URL y ayudar a los robots a encontrar más rápido tu contenido, que incluyen:
Eliminar detalles específicos del usuario en las URL:
Los parámetros de URL, que no cambian el contenido de la página, como el ID de sesión o el orden de clasificación, se pueden quitar de la URL y ponerlos en una cookie. Al poner esta información en una cookie y hacer una
redirección 301
a una URL "limpia", se conserva la información y se reduce el número de URL que apuntan a un mismo contenido.
Evitar espacios infinitos:
¿Tienes un calendario que enlaza a un número infinito de fechas pasadas o futuras (cada uno con su propia URL)? ¿Tienes datos paginados que devuelven un
código de estado 200
al añadir
&page=3563
a la dirección URL, incluso si no hay muchas páginas de datos? Si es así, tienes un
espacio infinito de rastreo
en tu sitio web, y los robots (¡y tu también!) podrían estar desperdiciando ancho de banda tratando de rastrearlo todo. Te recomendamos que tengas en cuenta
estos consejos
y trates de evitar los espacios infinitos.
Desactivar acciones que Googlebot no puede realizar:
A través del
archivo robots.txt
, puedes desactivar el rastreo de páginas de inicio, formularios de contacto, cestas de la compra y otras páginas cuya única funcionalidad es una acción que un robot no puede realizar. (Los robots son muy tímidos y además les gusta gastar poco, por lo que no suelen "Añadir a la cesta" o "Contactar"). Así permites que los robots utilicen más tiempo en rastrear contenido con el que realmente pueden hacer algo.
Una URL, un conjunto de contenidos:
En un mundo ideal, habría siempre una vinculación entre una URL y un determinado contenido: cada URL llevaría a una pieza de contenido única. Cuanto más cerca estemos de este ideal, más adecuado será tu sitio web para el rastreo y la indexación. Si tu sistema de gestión de contenidos (CMS) o la configuración actual de tu sitio web dificulta el rastreo, puedes usar el
elemento de enlace canónico
para indicar la URL preferida para un fragmento de contenido en concreto.
Si tienes más dudas sobre optimización de sitios web para rastreo e indexación, puedes consultar alguna de nuestras
entradas anteriores
[inglés]
sobre este tema, o pasarte por
nuestro foro
.
Publicado por Susan Moskwa, Webmaster Trends Analyst (Traducido por Esperanza y Cristina, equipo de Calidad de búsqueda).
Sobreoptimización y tiempos de carga. Vídeos de Matt Cutts.
viernes, 7 de agosto de 2009
A partir de ahora, vamos a compartir con vosotros una serie de vídeos que ha grabado Matt Cutts, ingeniero a cargo del equipo de webspam en Google. En estos vídeos se da respuesta a preguntas sobre diferentes temas que los usuarios nos han hecho, y creemos que os pueden resultar muy útiles.
Cada semana publicaremos un par de vídeos. La serie entera está grabada en inglés, pero hemos añadido los subtítulos en español y las transcripciones al final del artículo. Los subtítulos deberían aparecer por defecto, pero si no es así, los podéis activar desde el menú de la esquina derecha.
Esta semana Matt Cutts responde a preguntas acerca de la sobreoptimización y acerca de la etiqueta nofollow y los tiempos de carga en sitios web:
¿Es la sobreoptimización mala para un sitio web?
Nos preguntan sobre la sobreoptimización, y en particular sobre la etiqueta nofollow.
¿Afectan los tiempos de carga al posicionamiento en los resultados de búsqueda de Google?
Nos preguntan si el tiempo de carga de los sitios web afecta al posicionamiento en los resultados de búsqueda de Google, ¡no os perdáis la respuesta de Matt!
Esperamos que os resulte interesante. ¡Nos vemos la semana que viene con más vídeos!
Transcripción de ¿Es la sobreoptimización mala para un sitio web?:
Robert de Charlotte tiene una pregunta interesante: ¿Es la sobreoptimización mala para un sitio web? Por ejemplo, el uso excesivo del nofollow.
Muy buena pregunta. Primero, puedes usar tantos nofollow como quieras, no te preocupes, no hay penalización por uso excesivo del nofollow. No vas a tener problemas por ello. Por otra parte, lo de sobreoptimizar. No hay nada en Google como una penalización por sobreoptimización, pero muchas veces esto significa ser un poquito spammy, ya sabes, oh, mi densidad de palabras clave es un poco alta. Sobreoptimizar la densidad de palabras clave a veces significa: repetirlas tantas veces que los usuarios se molestan y los competidores dicen ¿y de dónde viene todo esto? Así que no es que digamos, este sitio tiene el distintivo de un SEO. Pero si optimizas demasiado puedes tener un sitio que no necesariamente le guste a la gente o que parezca chungo, cutre o simplemente malo. No es que vayamos a decir, hemos detectamos señales SEO en este sitio web, pero realmente puedes pasarte y tener un exceso de palabras clave, texto oculto o cosas así. Así que si esto te preocupa, párate a observar e intenta hacerlo mejor para los usuarios, pero no te preocupes por tener demasiadas etiquetas nofollow o cosas así, pues no tienen ninguna penalización.
Transcripción de ¿Afectan los tiempos de carga al posicionamiento en los resultados de búsqueda de Google?
¡Es hora de dar respuesta a más preguntas! Grabamos todas las preguntas un mismo día y luego las publicamos en varios días. La última vez alguien comentó que estuvo viendo el mismo polo rojo durante 30 o 40 días. Así que me he traído varias camisetas y me las iré poniendo de manera que tengáis más variedad.
Vamos con la primera pregunta de Deepesh en New York. "¿Qué impacto causa el tiempo de carga de un sitio en el posicionamiento en Google?" La respuesta corta es, por ahora ninguno. Pero vamos a detallar un poco más.
Está claro que si un sitio tarda tanto en cargar que no podemos ni rastrearlo, Googlebot no obtendrá una copia, y esto afectará tu posicionamiento, ya que tu sitio está básicamente desconectado. Si tu sitio tarda 20 o 30 segundos en responder a la solicitud, eso podría ser un problema. Pero si la diferencia es entre 1 o 2 segundos, esto no tendrá ningún efecto en el posicionamiento en Google. Esa es la respuesta corta.
Ahora un poco más de detalle: Por si no lo sabías, Larry Page habló sobre cómo quiere que sea la web. Quiere que sea muy rápida, como si ojearas una revista. Cuando giras una página, la otra ya está lista. Y con esta filosofía se creó Chrome, ya que queremos que la web sea rápida y sea una buena experiencia. Así que por ahora los tiempos de carga no tienen ningún efecto en el posicionamiento en Google, ¿pero qué pasará en el futuro? No se sabe. Podría imaginar a Google diciendo, "Queremos que la web sea más rápida. ¿Cómo podemos hacer las webs más rápidas y hacer que la gente se entere?", la gente será más feliz y volverán a tu sitio o lo usarán más a menudo. Hemos visto esto en nuestro propio sitio. Así que es interesante que queramos que la web sea rápida y los sitios carguen rápido. Ahora mismo no es un factor decisivo. En el futuro, ¿quién sabe qué factores se tendrán en cuenta?
Personalmente, creo que es una buena idea si puedes hacer tu sitio un poco más rápido. Así que, por ejemplo, no incluyas 40 archivos Java Script diferentes. Puedes comprimirlos en tan sólo un archivo Java Script o CSS. No incluyas imágenes grandes si los ajustes para imágenes son para imágenes en miniatura. Hay muchas maneras de minimizar o comprimir tus páginas para hacerlas más rápidas. Puedes usar gzip en tus páginas, por ejemplo. Así que hay muchas maneras de crear una buena experiencia al usuario. No te preocupes por esto desde el punto de vista de los motores de búsqueda por el momento, aunque para tus usuarios sí que puede representar una gran diferencia.
Publicado por Cristina Zurita, equipo de Calidad de búsqueda.
Usabilidad y accesibilidad
miércoles, 5 de agosto de 2009
Hoy vamos a hablar de accesibilidad y de usabilidad como instrumento para la construcción y el aumento de la popularidad de un sitio web.
A menudo, la falta de atención a cuestiones relacionadas con la navegación de un sitio resultan en la frustración del usuario, ya que no puede encontrar lo que está buscando. Y con esta experiencia, se reduce la posibilidad de convertir a dicho usuario en cliente.
En general, para construir un buen sitio es necesario comprender las necesidades de su audiencia. Y hay que tener en cuenta dos aspectos fundamentales: la usabilidad y la accesibilidad.
La usabilidad mide la facilidad con la que un usuario realiza determinadas acciones en un sitio web, a través de algunos parámetros:
•
Navegación intuitiva
•
Disponibilidad de la información
•
Posibilidad de memorizar opciones seleccionadas
•
Eficiencia del sitio
•
Satisfacción en general
Un sitio web no sólo debe ser útil, sino que también debe ser accesible, que se pueda hacer uso de todas sus funciones por parte de todo tipo de usuarios, incluyendo aquellos con visibilidad reducida, usuarios con navegadores obsoletos, o navegadores textuales, con conexiones lentas, etc.
Existen muchas directrices sobre accesibilidad, entre las que se encuentran las del
World Wide Web Consortium
(W3C)
en el marco de la Iniciativa de
Accesibilidad Web
(WAI).
Las directrices internacionales y las autoridades locales protegen a los usuarios de lectores de pantalla (
NVDA
para Windows y
Orca
para Linux
[inglés]
), navegadores textuales (
Lynx
[inglés]
), traductores Braille, aumentos para aquellos con discapacidades visuales o software de reconocimiento de voz, para asegurar que estas personas disfrutan del mismo contenido que se ofrece mediante navegadores gráficos, como Firefox e Internet Explorer. En concreto, se da gran importancia a la correcta utilización del atributo ALT como texto alternativo a los contenidos multimedia, así como al uso de menús textuales para un acceso fácil y rápido a los contenidos.
Al concebir la estructura de un sitio se debe pensar en los distintos tipos de navegadores y en el hecho de que algunos usuarios pueden tener desactivadas las imágenes (o utilizar un lector de pantalla) y que estos verán o escucharán el texto en ALT en lugar de visualizar la imagen.
El texto creado para mejorar la accesibilidad debe facilitar el uso del sitio y no buscar un mejor posicionamiento en los motores de búsqueda.
Piensa en lo molesto que es para un usuario con lector de pantalla leer descripciones largas y, en algunos casos, irrelevantes. En ese caso, se trataría de texto oculto, en lugar de texto en ALT con fines de accesibilidad.
Para entender mejor cómo es un sitio con una buena accesibilidad, en la imagen siguiente podemos ver la versión de una página sin hoja de estilo (CSS):
(
www.interno.it
)
En esta otra imagen podemos ver, en su lugar, un tipo de texto oculto creado exclusivamente para los motores de búsqueda:
(ejemplo creado para nosotros)
La construcción de un sitio web accesible y con una buena usabilidad siempre se considera positivamente dentro de la comunidad de Internet.
Imagina tu sitio web como un producto de consumo, los usuarios como clientes y los motores de búsqueda como un supermercado. Un cliente que busca un producto en particular, que no tenga una idea clara, irá al supermercado a elegir entre una amplia variedad de productos similares. Si ya probó un producto determinado, y el usuario ya está satisfecho, la próxima vez no se repetirá todo el proceso y las decisiones estarán fuertemente influenciadas por la experiencia anterior.
Del mismo modo, si un sitio cumple con las necesidades de los usuarios en términos de facilidad de uso y/o accesibilidad, éstos regresarán de manera voluntaria.
Publicado por Alessandro Boscolo y Paolo Petrolini, Search Quality Team (traducido por Cristina, equipo de Calidad de búsqueda).
Etiquetas
Academia para webmasters
4
accesibilidad
27
acciones
1
acciones manuales
4
ajax
1
alt
1
amp
10
analíticas de Google
1
angular universal
1
anomalias
1
api
2
api psi
1
api search analytics
2
articulos
2
artículos
1
asistente
1
avanzado
16
blog
2
Botón +1
7
búsqueda
2
busqueda de google
1
calidad
1
casos de exito
1
centro de ayuda
1
centro de datos
1
certificación
1
certificado
1
chrome
3
chromium
1
cobertura del índice
3
cocina
1
codelab
1
codigo fuente
1
colaboradores principales
1
comentarios
1
comunicación
23
comunidad
1
conexión cifrada
1
consejos
99
consola de firebase
1
contenido
1
contenido duplicado
1
criterios de posicionamiento
2
cuadro de busqueda
2
danny sullivan
1
data-nosnippet
1
datos agregados
1
datos de campo
1
datos de experimentos
1
datos estructurados
16
dcl
1
desarrolladores
2
devtools
1
diagnostico
1
directrices para webmasters
30
directrices tecnicas
1
discover
1
diseño adaptable
1
DOM Content Loaded
1
dominio
1
empleo
3
empresa local
1
enlaces
9
enlaces artificiales
1
enlaces fraudulentos
1
errores de marcado
1
evaluadores
1
event
1
eventbrite
1
evento global
1
eventos
23
experiencia de usuario
1
experto de producto
1
experto producto
1
expertos de producto
2
expertos producto
2
express.js
1
facturacion
1
faq
1
fcp
1
fechas
2
ficha de empresa
1
First Contentful Paint
1
flujo de validación de problemas
1
foro
26
foro de editores
1
fragmentos de texto
1
fragmentos destacados
1
github
1
google analytics
1
google cloud platform
1
google i/o
1
google imágenes
2
google news
1
google noticias
1
google play instant
1
guía inicio rápido
1
guia seo
1
herramientas para webmasters
123
home
1
horas
1
html
5
http
1
https
3
imagenes
1
indexacion
2
indexing
1
informe de recetas
1
informe de rendimiento
5
informe de transparencia
1
informe spam
1
inspección de url
4
iso 8601
1
javascript
1
jobposting
2
jobrapido
1
kitten corner
1
lighthouse
3
logotipo
2
max-image-preview
1
max-snippet
1
max-video-preview
1
metaetiqueta
1
mfi
1
middleware
1
móvil
21
moviles
1
navegación segura
2
no segura
1
no seguro
1
nosnippet
1
optimizar sitio web
1
oro
1
pagespeed
3
penguin
1
pki
1
plata
1
platino
1
politicas de contenido
1
prácticas recomendadas
2
preguntas y respuestas
1
producto
1
productos y servicios
40
prueba de optimizacion para moviles
1
rakuten
1
rastreo e indexación
100
recaptcha
1
receta
1
recetas
1
reconsideraciones
2
renderizado dinamico
1
Rendertron
1
rendimiento
12
reseña
1
resultados de búsqueda
94
resultados enriquecidos
2
robot
1
robot noindex
1
ruta de navegacion
1
safe browsing
1
Search Console
20
seguridad
13
servidor
1
site clinic
10
Site Reliability Engineering
1
sitemaps
14
sitios pirateados
1
software malicioso
1
software no deseado
1
spam
2
ssl
1
symantec
1
tarifas
1
titulares
1
tls
1
twitter
4
url
1
url canonica
1
url canonicas
1
url de referencia
1
usuarios destacados
1
velocidad
3
verificacion dns
1
vídeo
82
videos
1
web light
1
webmaster
2
webspam
3
youtube
1
zona horaria
1
Archivo del blog
2020
nov
¡Adiós, Webmasters de Google! ¡Hola, Central de la...
sept
ago
jul
jun
may
abr
mar
feb
ene
2019
dic
nov
oct
sept
jun
abr
mar
feb
ene
2018
dic
nov
oct
jul
jun
may
abr
feb
ene
2017
dic
nov
sept
ago
jul
jun
abr
mar
ene
2016
nov
sept
ago
may
abr
mar
ene
2015
dic
nov
oct
sept
ago
jul
may
abr
mar
ene
2014
nov
oct
sept
ago
jun
may
abr
mar
feb
ene
2013
oct
sept
ago
jul
jun
may
abr
mar
feb
ene
2012
dic
nov
oct
sept
ago
jul
jun
may
abr
mar
feb
ene
2011
dic
nov
oct
sept
ago
jul
jun
may
abr
mar
feb
ene
2010
dic
nov
oct
sept
ago
jul
jun
may
abr
mar
feb
ene
2009
dic
nov
oct
sept
ago
jul
jun
may
abr
mar
feb
ene
2008
dic
nov
oct
sept
Feed
Follow @googlewmc
Recursos para webmasters
Foro para Webmasters
Centro de Asistencia
Google Search Console
Google Webmaster en castellano