El Blog para Webmasters
Noticias en castellano sobre el rastreo e indexación de sitios web en el buscador Google
Consejos sobre búsqueda orgánica: optimiza tu sitio para los motores de búsqueda
miércoles, 29 de julio de 2009
A continuación vamos a compartir algunos consejos para mejorar el posicionamiento de tu sitio web en los resultados de búsqueda orgánicos de Google.
Aquí no encontrarás una fórmula mágica para hacer que tu sitio web aparezca el primero en los resultados de búsqueda, pero comentaremos algunas prácticas recomendadas sobre enlaces, contenido y estructura que pueden resultarte útiles.
Es importante recordar que nuestros programas de publicidad son independientes de nuestros resultados de búsqueda orgánicos. Si un sitio se promociona a través de AdWords o si utiliza AdSense, esto no afectará al posicionamiento en los resultados de búsqueda.
La clasificación de los sitios que se muestran en los resultados del motor de búsqueda de Google depende de muchos algoritmos. Además, una estrategia de optimización debe ser algo continuo y a largo plazo. Por esta razón, recomendamos evitar cualquier técnica u oferta que prometa la optimización de un sitio web de forma radical, ya que es posible que las técnicas utilizadas no respeten nuestras Directrices para webmasters. Si tienes dudas, puedes consultar foros para comunicarte con otros webmasters que te pueden informar y ayudar a resolver dudas. Google dispone de su propio
Foro para webmasters
, te recomendamos que lo utilices. Los miembros del foro intercambian opiniones y ofrecen consejos y los empleados de Google intervienen en algunas de las discusiones.
En primer lugar, presta atención a la estructura de tu sitio web:
Utiliza una jerarquía bien definida para organizar tus páginas, con enlaces internos que permitan una buena navegación entre las páginas. Recomendamos la utilización del archivo sitemap.
Prueba las
Herramientas para webmasters
que proporciona Google. Son gratuitas, fáciles de utilizar y te aportarán mucha información sobre tu propio sitio. Como por ejemplo, qué sitios están enlazando al tuyo o qué palabras clave utilizan los usuarios de Google para encontrar tu sitio.
Titula tus páginas con nombres explicativos y útiles para los usuarios. Evita títulos como "Bienvenido a mi sitio", "Página principal" o "Índice”, que resultan demasiado genéricos.
En segundo lugar, presta atención a la calidad de tus enlaces entrantes, es decir, aquellos enlaces que apuntan a tus páginas desde otros sitios. Para aumentar la popularidad de tu web, busca sitios con una temática similar a la tuya o sitios a los que les pueda interesar tu contenido. Escribe contenido original y personalizado para tu sitio, ya que no sólo atraerá a los usuarios, sino que también atraerá a otros webmasters, que puede que acaben enlazando a tu sitio porque les gusta.
Los enlaces salientes, desde tu sitio hacia otro sitio externo, también se tienen en cuenta y deben cumplir con nuestras
directrices
. Cuando añades un enlace saliente siempre es bueno plantearse "¿es este enlace útil para mis usuarios?" o "¿harían clic los usuarios?" No participes en redes de intercambio de enlaces: van en contra de nuestras Directrices de calidad y, por lo tanto, pueden causar un impacto negativo en el posicionamiento de tu sitio.
Por último, es importante añadir contenido orgánico a tu sitio de forma regular, por varias razones: para alentar a los visitantes a volver más a menudo a tu sitio web; para fomentar también que los robots de Google rastreen tu página frecuentemente y así atraer más enlaces entrantes de calidad.
Como conclusión final, el diseño de tu web debe estar orientado a los usuarios. Piensa a largo plazo y ten paciencia. Es importante disponer de enlaces entrantes de calidad. Asegúrate de proporcionar una estructura clara, así como de añadir contenido original de forma frecuente. Estos son los primeros pasos para desarrollar tu estrategia de posicionamiento.
Publicado por Ambroise Fensterbank, equipo de Calidad de búsqueda (traducido por Cristina, equipo de Calidad de búsqueda).
Google Friend Connect, ¡ahora en 47 idiomas!
jueves, 23 de julio de 2009
¿Hasta ahora no usabas
Google Friend Connect
porque tu sitio no está en inglés? Ahora Friend Connect está disponible en 47 idiomas, entre los que se incluyen el español, el portugués, el francés, el italiano, el alemán, el chino, el japonés y el hindi. Ya puedes añadir de forma sencilla funciones sociales que concuerden con el idioma del contenido de tu sitio.
Muchos de los gadgets de Google (como los gadgets de
miembros
,
comentarios
y
recomendación
[inglés]
) están ahora disponibles en estos idiomas. Muchos desarrolladores también han creado gadgets que dan soporte a idiomas adicionales y esperamos que haya más en el futuro. Para ver la lista de gadgets disponibles en tu idioma, visita la
galería de gadgets
.
Cuando añades Friend Connect a un sitio nuevo, lo hará en tu idioma predeterminado. Pero si tu sitio está en otro idioma, simplemente selecciónalo en la pestaña de ajustes del sitio y Friend Connect los mostrará en ese idioma. Y si tienes varios sitios en diferentes idiomas, puedes seleccionar un idioma diferente para cada uno de ellos.
Para obtener información adicional así como para ver la lista completa de idiomas, consulta nuestro
Social Web Blog
[inglés]
.
Publicado por Mendel Chuang, Product Marketing Manager, Google Friend Connect (traducido por Cristina, equipo de Calidad de búsqueda).
Actualización de las Herramientas para webmasters: "Summer Shine"
martes, 21 de julio de 2009
El equipo encargado de las Herramientas para Webmasters le da nombre a cada una de las actualizaciones que realiza. La actualización de hoy se llama "
Summer Shine
" ("Brillo de verano").
Aquí presentamos los puntos más destacados de esta última actualización:
Nuestro selector de sitios muestra ahora todos los sitios verificados que posees y permite buscar mientras que vas escribiendo.
Ahora puedes bloquear los sitios de enlaces que no van a la página de inicio. Ayer mismo, si tu tenías el sitio example.com no podías bloquear example.com/email.
Ahora también puedes ver la solicitud de eliminación de URL enviada por terceros en cualquiera de los sitios que sean tuyos y anularlo si es necesario. Antes, si otro webmaster, por equivocación, eliminaba una URL de tu sitio y se iba de vacaciones, era difícil deshacer dicha solicitud.
Nuestra página de inicio es mucho más fácil de navegar. Ahora hacemos una distinción clara entre sitios verificados y sin verificar.
Esperamos que te gusten las mejoras:
dinos que te parecen
[inglés]
.
Publicado por Sagar Kamdar, Product Manager, Webmaster Tools (Traducido por Esperanza, Equipo de calidad de búsqueda)
¿Vas a migrar tu sitio? Prácticas recomendadas
viernes, 17 de julio de 2009
¿Estás pensando en migrar tu sitio a un dominio nuevo? A muchos webmasters les asusta este tema. ¿Cómo hacerlo sin perjudicar el rendimiento de tu sitio web en los resultados de búsqueda de Google?
El objetivo es hacer la transición invisible para el usuario y asegurarse de que Google reconoce las señales de calidad de la nueva página de la misma manera que las anteriores. Al migrar el sitio, unos molestos errores 404 (Archivo no encontrado) pueden crear una mala experiencia al usuario y causar un impacto negativo en el rendimiento del sitio web en los resultados de búsqueda de Google.
Vamos a hablar sobre el cambio de tu sitio a un dominio nuevo, como lo sería por ejemplo el cambio de www.example.com a www.example.org. Esto no es lo mismo que pasar a una nueva dirección IP (puedes leer
esta entrada
[inglés]
para tener información adicional sobre ese tema).
Estos son los puntos principales:
Realiza una prueba moviendo el contenido de un directorio o subdominio. A continuación, utiliza una
redirección 301
[inglés]
para redirigir de manera permanente aquellas páginas del sitio antiguo al nuevo. Esto indica a Google así como a otros motores de búsqueda que tu sitio se ha movido de manera permanente.
Una vez completado este paso, comprueba que las páginas del sitio nuevo aparecen en los resultados de búsqueda de Google. Cuando creas que todo funciona correctamente, puedes realizar el cambio en el sitio entero. No redirijas de repente todo el tráfico de tu sitio antiguo a tu nueva página de inicio. Esto evitará errores 404, pero no será una buena experiencia para el usuario. Una redirección de página a página es más trabajosa pero ofrece a los usuarios una experiencia consistente y transparente. Si no existe una equivalencia para cada una de las páginas antiguas, puedes asegurarte al menos de que cada página de tu antiguo sitio redirige a una página nueva con contenido similar.
Si cambias tu sitio por cuestiones de rebranding o rediseño, es posible que quieras hacer este proceso en dos fases: en primer lugar, mover el sitio, y en segundo lugar, lanzar el nuevo diseño. Esto es una manera de suavizar la cantidad de cambios a los que someterás a tus usuarios a lo largo del proceso. Esto también facilita las cosas a la hora de encontrar una solución a los posibles problemas que puedan surgir.
Comprueba los
enlaces internos y externos hacia páginas de tu sitio
. Idealmente, deberías ponerte en contacto con el webmaster de cada uno de los sitios que te enlazan para pedirles que actualicen los enlaces. Si esto no es factible, asegúrate de que todas las páginas con enlaces entrantes redirigen a tu nuevo sitio. También debes verificar los enlaces internos dentro del sitio antiguo y actualizarlos para que apunten al nuevo dominio. Una vez que el contenido se encuentra en el nuevo servidor, puedes usar herramientas como
Xenu
[inglés]
para asegurarte de que no hay enlaces rotos. Esto es especialmente importante si el contenido original incluye enlaces absolutos (como www.example.com/cocina/recetas/chocolatecake.html) en lugar de enlaces relativos (como ... /recetas/chocolatecake.html).
Para evitar cualquier confusión, es mejor mantener tu sitio antiguo durante al menos otros 180 días.
Añade tu nuevo sitio a tu cuenta de las Herramientas para webmasters
y
verifícalo
. A continuación, crea y envía un
sitemap
con las URL de tu nuevo sitio. Esto indicará a Google que tu nuevo contenido está ahora disponible y que deberíamos rastrearlo.
Por último, mantén verificados ambos sitios en las Herramientas para webmasters, y revisa regularmente los
errores de rastreo
para asegurarte de que las redirecciones 301 desde el sitio antiguo funcionan correctamente y de que el nuevo sitio no muestra errores 404 no deseados.
Lo admitimos, este proceso nunca resulta fácil. Pero estas medidas deberían ayudar a asegurar que la buena reputación de tu web no cae en el proceso.
Publicado por Ríona MacNamara, Webmaster Tools Team (Traducido por Cristina, equipo de Calidad de búsqueda).
Hacer la información universalmente accesible y útil
jueves, 16 de julio de 2009
Nuestra misión en Google es organizar la información mundial y hacerla universalmente accesible y útil. Una de las formas de hacerlo es rastreando Internet para encontrar nueva información y, a continuación, añadirla a nuestro índice de búsqueda. Rastreamos periódicamente miles de millones de páginas
e indexamos
[inglés]
páginas web
,
tablones de mensaje
s,
imágenes
,
noticias
,
vídeos
,
libros
y
mucho más
. Sin embargo, a veces nos damos cuenta de que a los usuarios de Internet le gustaría encontrar incluso más información: información que está disponible en línea, pero, por una razón u otra, está bloqueada para nuestros rastreadores. Si nuestros rastreadores no pueden ver los documentos, nos resulta difícil añadirla al índice de forma adecuada y hacerla accesible a los usuarios de todo el mundo.
¿Está indexado tu contenido?
Comprobar que nuestro motor de búsqueda indexa tu contenido de forma correcta es muy sencillo: busca tu sitio web con el operador "site". Por ejemplo, para saber que el contenido de Grupos de Google está siendo indexado en nuestra búsqueda web, puedes buscar [
site: groups.google.com
] (Generalmente utilizamos paréntesis para indicar las palabras que buscamos, así que no es necesario que la incluyas en la consulta).
En este caso, vemos que hay un gran número de páginas indexadas y la primera es la página principal de Grupos de Google y se ve bien: mucha información, muchos mensajes indexados y disponibles para los usuarios de Internet.
Si tu sitio web no se actualiza correctamente, generalmente verás un mensaje indicando que el contenido no está en el índice, o encontrarás una listado con poca o ninguna información. Por ejemplo, el nombre de dominio "example.com" está reservado para ejemplos y no puede ser rastreado. En nuestros resultados de búsqueda, puedes ver que no estamos indexándolo de la misma manera que los Grupos de Google por la búsqueda [
site: example.com
]
Esto se parece a lo que ocurre con mi sitio ¿Cómo puedo solucionarlo?
Si tu sitio está indexado de la misma manera que este último ejemplo, o no hay nada indexado, no te preocupes. Nada es permanente en la web, en general es fácil de localizar y resolver estos problemas. Aquí hay algunas cosas que puedes comprobar:
¿Es nuevo tu sitio web?
El rastreo y la indexación de la web puede llevar algún tiempo. Si tu sitio es nuevo, puede que todavía no hayamos llegado a él. Ten paciencia y compruébalo de nuevo dentro de un tiempo. Mientras tanto, puedes comprobar si tu sitio web
es
compatible con los robots de Google
para que pueda ser rastreado.
¿Permite tu sitio web el acceso a los motores de búsqueda?
Los motores de búsqueda en general siguen las directivas que figuran en el archivo "robots.txt" de un sitio web, que definen qué contenido se puede rastrear. A veces los sitios web bloquean de manera accidental a todos los motores de búsqueda con el archivo robots.txt, a menudo porque el archivo no se cambia, por error, desde su versión de prueba.
En algunos casos también hemos visto que los webmasters bloquean todos los motores de búsqueda para evitar cargar el servidor al rastrear las URL. En casos así, puede ser útil definir qué páginas de las rastreadas causan el problema y bloquearlas, de forma selectiva, en lugar de bloquear todo el sitio web. Puede que también desees cambiar la
configuración de frecuencia de rastreo
en tu cuenta de las Herramientas para webmasters.
Puedes comprobar fácilmente el archivo robots.txt de tu sitio web en un navegador. Por ejemplo, puedes comprobar el
archivo robots.txt para YouTube.com
. Las Herramientas para webmasters de Google ofrecen una herramienta muy sencilla para
probar el archivo robots.txt
. También puedes aprender a crear uno para tu sitio si aún no dispones de uno (es totalmente opcional).
El siguiente archivo robots.txt
bloquea
el rastreo de contenido en todos los motores de búsqueda :
User-agent: *
Disallow: /
Los siguientes robots.txt
permitirían
a todos los motores de búsqueda rastrear el contenido:
User-agent: *
Disallow:
# No hay ninguna ruta, después de "Disallow:" lo que significa que se permite el rastreo a todos.
Ten en cuenta que no hay nada al lado de la directiva Disallow: (Si no tuvieses un archivo robots.txt en tu sitio web esto tendría el mismo efecto).
Desde la cuenta de las Herramientas para webmasters de Google generalmente informamos sobre
errores de rastreo, como los procedentes del archivo robots.txt
. ¡Asegúrate de que
has añadido tu sitio web y está verificado
para saber más!
¿Permite tu sitio web la indexación del contenido?
Hemos visto sitios web que permiten ser rastreados, pero luego bloquean a los motores de búsqueda para que no indexen su contenido. Esto generalmente se hace con una
metaetiqueta "robot" añadiendo un "noindex"
. Puedes comprobar si tu sitio web está utilizando esta metaetiqueta a través del código fuente de tu página de inicio (hay que tener en cuenta que esta metaetiqueta puede utilizarse a nivel de página).
A menudo esto se debe a un ajuste en el software del sitio web y se activó de manera accidental (o fue simplemente un olvido). A veces los títulos de estas opciones son difíciles de relacionar con esta metaetiqueta. Por ejemplo, puede ser llamado "Visibilidad del sitio web" o "Deja que los motores de búsqueda encuentren tu sitio web".
¿Estás seguro de que no hay otros problemas técnicos que puedan bloquear a los motores de búsqueda?
Algunas veces hay
problemas técnicos que impiden el rastreo de tu sitio web
[inglés]
. Si sospechas que este podría ser tu caso, puede que quieras publicar una pregunta en nuestro Foro de Asistencia para webmasters o recibir ayuda de tu proveedor de alojamiento.
¿Cumple tu sitio web con nuestras Directrices para webmasters?
Podemos optar por eliminar un sitio web de nuestros resultados de búsqueda, si creemos que viola nuestras
Directrices para webmasters
. Si crees que este podría ser tu caso, sería una buena idea para limpiar cualquier problema que puedas encontrar y enviar una
solicitud de reconsideración
a través de tu cuenta de las Herramientas para webmasters. Si no estás seguro acerca de algunos de los puntos de las directrices, no dudes en preguntar en el
Foro de Asistencia para webmasters
.
Si tienes dudas acerca de cualquiera de estos pasos y crees que tu sitio web debería haber sido rastreado e indexado a estas alturas, quizás pueda ayudarte la experiencia de otras personas. Así que invierte un poco de tiempo buscando entre las preguntas del
Foro para webmasters
y si no te ayuda, crea tu propio hilo con detalles específicos de su sitio, como la url o cualquier cambio que hayas hecho recientemente. Una vez que hayas llevado a cabo todos estos consejos generales sobre rastreo, la indexación de tu sitio web será sólo una cuestión de tiempo.
Gracias por tomarte tu tiempo para comprobar tu sitio web. ¡Esperamos poder ayudarte a hacer tu contenido accesible y útil a través de nuestro motor de búsqueda!
Publicado por John Mueller, Webmaster Trends Analyst, Google Zurich, (Traducido por Esperanza, Equipo de calidad de búsqueda)
Bajadas de tráfico y arquitectura de sitios web
viernes, 10 de julio de 2009
A menudo nos preguntan sobre problemas de bajada de tráfico y de arquitectura de sitios web, así que estaba encantada de poder hablar sobre el tema en
SMX Londres
[inglés]
. A continuación, me gustaría comentar algunos conceptos clave de mi presentación
[inglés]
. En primer lugar, vamos a comprender mejor las bajadas de tráfico y luego echaremos un vistazo a problemas de arquitectura y de diseño de sitios web.
Sobre las bajadas de tráfico
Como ya sabéis, hay fluctuaciones en los resultados de búsqueda.
La web está en constante evolución y, por lo tanto, lo está también nuestro índice
. Las mejoras en nuestra capacidad para entender los intereses de nuestros usuarios y también las palabras claves a menudo conducen a cambios en la forma en la que nuestros algoritmos seleccionan y clasifican las páginas. Nos damos cuenta, sin embargo, que tales cambios pueden ser a veces confusos y pueden fomentar ideas erróneas, por lo que nos gustaría abordar un par de mitos a continuación:
Mito 1: El contenido duplicado causa bajadas de tráfico
A menudo, los webmasters se preguntan si el contenido duplicado en sus sitios web puede afectar negativamente al tráfico de sus webs.
Como se menciona en nuestras directrices
, a menos que esta duplicación se destine a manipular a Google y/o a los usuarios, la duplicación en sí no es una violación de nuestras Directrices para webmasters. La segunda parte de mi presentación
[inglés]
ilustra con mayor detalle cómo tratar el contenido duplicado utilizando la
URL canónica
.
Mito 2: Los programas de afiliados causan bajadas de tráfico
Disponer de contenido original y relevante es algo crucial para ofrecer una buena experiencia al usuario. Si tu sitio participa en
programas de afiliados
, es esencial tener en cuenta si ese contenido ya está disponible en muchos otros lugares en la web. Es poco probable que los sitios de afiliados con poco o ningún contenido original se posicionen en los primeros puestos de los resultados de búsqueda de Google, aunque disponer de enlaces de afiliados en un contexto de contenido original y relevante para el usuario no disminuirán el tráfico de tu sitio.
Tras revisar algunas de las preocupaciones más comunes, me gustaría destacar dos secciones importantes de la presentación. La primera habla de cómo un ataque malicioso (por ejemplo, una inyección de
enlaces y texto ocultos
) podría provocar la eliminación de tu sitio de los resultados de búsqueda de Google. También habla de cómo puedes utilizar la caché de Google y las Herramientas para webmasters para localizar este problema. Además, si encontramos que no se respetan las Directrices para webmasters debido al uso de texto oculto o la presencia de
malware en tu sitio
[inglés]
, normalmente verás una nota sobre esto en el centro de mensajes de las Herramientas para webmasters de Google.
Puede que también hayas observado una disminución del tráfico de tu sitio si se está redirigiendo a los usuarios a algún otro sitio... por ejemplo, debido a una redirección creada por un hacker a nivel de página o bien de servidor, que se desencadena cuando un usuario trata de acceder a tu sitio desde un resultado de búsqueda. Un caso parecido, pero con resultados diferentes, ocurre cuando un hacker crea una redirección pero sólo para los rastreadores. Si bien esto no causa una bajada inmediata de tráfico, ya que los usuarios y sus visitas no se ven afectados, puede conducir a una disminución del número de páginas indexadas tras un tiempo.
Problemas de arquitectura y diseño
Ahora que hemos visto cómo estas técnicas maliciosas podrían afectar a tu sitio y a su tráfico, vamos a examinar algunas cuestiones sobre arquitectura y diseño. En concreto, tu quieres garantizar que tu sitio web se rastrea e indexa de manera eficaz, que es un requisito previo para que se muestre en los resultados de búsqueda. ¿Qué es lo que debes tener en cuenta?
En primer lugar, comprueba que el archivo robots.txt tiene el código de estado correcto y no devuelve
errores
.
Ten en cuenta algunas de las prácticas recomendadas al
mover tu contenido a un sitio nuevo
y la función "
Cambio de dominio
" en las Herramientas para webmasters.
Revisa la configuración del archivo robots.txt para asegurarte de que no hay páginas bloqueadas indebidamente, como por ejemplo las url dinámicas o reescritas.
Por último, haz un buen uso del
atributo rel ="canonical"
para reducir la indexación de contenido duplicado en tu dominio. El ejemplo en la presentación muestra cómo utilizando este atributo se ayuda a Google a comprender que los duplicados se pueden agrupar con el atributo canónico y que el original, o canónico, es el que tiene que ser indexado.
En conclusión, recuerda que las fluctuaciones en los resultados de búsqueda son normales, pero hay algunos pasos a seguir para evitar ataques maliciosos o problemas de arquitectura y diseño que podrían provocar la desaparición o la fluctuación de tu sitio en los resultados de búsqueda. Puedes aprender más sobre
ataques de hackers y spammers
[inglés]
, asegurarte de que todo funciona correctamente a la hora de rastrear e indexar tu sitio, comprobando las
sugerencias en HTML
en las Herramientas para webmasters y, por último, realizar una
prueba de robots.txt
en caso de que estés bloqueando a Googlebot accidentalmente. ¡Y no te olvides los errores "
robots.txt inaccesible
"!
Publicado por Luisella Mazza, Search Quality Senior Analyst (Traducido por Cristina, equipo de Calidad de búsqueda).
Spam 2.0: Cuentas de usuario y perfiles spam falsos
miércoles, 8 de julio de 2009
Eres un buen webmaster o un buen desarrollador web y haces todo lo posible para
mantener tu sitio libre de cualquier intento de hackeo
, así como para
mantener foros y secciones de comentarios sin spam
. Eres el orgulloso propietario de una activa comunidad social de la web 2.0, que proporciona contenido generado por los usuarios y que, probablemente, obtenga un montón de visitas a través de Google y de otros motores de búsqueda.
Muchos de los visitantes de tu sitio crearán perfiles de usuario, y algunos pasarán horas escribiendo en foros, uniéndose a grupos, interactuando con sus contactos. Y esto es genial.
Otros, sin embargo, crearán cuentas y llenarán sus perfiles de texto sin sentido. O peor aún, añadirán enlaces sospechosos, con código JavaScript para redirigir, o con un vídeo de mentira incrustado que lleva a tus usuarios a los rincones más cutres de la web.
Bienvenido al mundo de los perfiles spam. La web social está creciendo increíblemente deprisa y los spammers consideran cualquier contenido generado por los usuarios como una oportunidad para conseguir tráfico. Tras hablar con webmasters experimentados a los que les sorprendió que esto fuera un problema, decidí que hablaría un poco sobre los perfiles spam y qué se puede hacer para encontrarlos y eliminarlos de tu sitio.
¿Por qué es importante?
Imagínate la situación:
"Hola, bienvenidos a nuestra nueva red social 2.0. Tengo un nuevo amigo para ti. Su nombre es Sr. CompraAlargadorMasculinoPolitonosAhora y le encantaría que echaras un vistazo a su perfil. Tiene NaN años, es de Pharmadelphia, y puedes echar un vistazo a su emocionante página en la dirección http://example.com/trampasegura.
¿No te interesa? Pues entonces déjame que te presente a ChicasBonitasWebCam1234, dice que es una vieja amiga tuya de la universidad y tiene muchas fotos y vídeos interesantísimos que seguro que quieres ver.
Probablemente no desees que la primera impresión de los visitantes de tu sitio sea que es un sitio para incluir imágenes inapropiadas u ofertas de negocio sospechosas. Definitivamente no quieres que tus usuarios se vean acosados por falsas solicitudes, hasta el punto de que paren de visitar tu sitio por completo. Si tu sitio se llena de contenido y enlaces spam, los motores de búsqueda pueden dejar de confiar en el sitio, y es una pena porque, por todo lo demás, el sitio es perfectamente correcto.
¿Por qué iba alguien a crear perfiles spam?
Los spammers crean perfiles falsos por diferentes razones. A veces, son sólo una forma de llegar a los usuarios de las redes sociales desde dentro. Esto es algo parecido a la manera de funcionar de los correos spam. La idea es enviar mensajes o invitaciones falsas para que los usuarios vayan a un determinaado enlace, hagan una compra o descarguen malware.
Los spammers también están utilizando los perfiles spam como otra vía para generar spam en la web en lo que serían dominios buenos si no fuera por estos perfiles. Rastrean la web para buscar oportunidades para crear enlaces sospechosos, generar redirecciones y distribuir malware entre los usuarios. Utilizan tu sitio porque no les cuesta nada y desean aprovecharse de su buena reputación.
Este último caso es cada vez más común. Algunos perfiles falsos son obvios, y utilizan fármacos populares como nombre de perfil. Pero hemos notado un aumento en el número de spammers expertos que intentan utilizar nombres reales y datos realistas para colocar enlaces malos. Para asegurarse de que sus perfiles spam recién creados aparecen en las búsquedas, generan enlaces a sitios hackeados, o con comentarios spam y enlazan a otros perfiles spam. Esto resulta en una gran cantidad de contenido malo en tu dominio, enlaces no deseados a sitios spam y molestias a tus usuarios de verdad.
¿Qué sitios han sido objeto de abuso?
Puede que pienses "Mi sitio no es una gran red social, así que yo no me tengo que preocupar”. Lamentablemente, los perfiles spam se dan en todas partes, desde la red social más grande hasta el más pequeño de los foros. Muchos tablones de anuncios y sistemas de gestión de contenidos (CMS), como vBulletin, phpBB, Moodle, Joomla, etc. generan páginas de miembro para cada usuario que crea una cuenta. En general, los CMS facilitan el uso de las funciones interactivas y la generación de contenido, pero estas páginas generadas de forma automática pueden ser objeto de abuso si no prestas atención.
Para todos aquellos que sí trabajáis en grandes redes sociales, tened en cuenta que vuestro sitio es uno de los objetivos de los spammers. Desean acceder a vuestra gran base de datos, esperando que los usuarios confíen en nuevas solicitudes de amistad, ampliando así sus posibilidades de éxito.
¿Qué puedes hacer?
Esto no es un problema fácil de solucionar, ya que atacan a una gran variedad de sitios y además parecen capaces de adaptar sus scripts para salirse con la suya. Google está bajo ataque constante de spammers que intentan crear cuentas falsas y generar perfiles spam en nuestros sitios y, a pesar de todos nuestros esfuerzos, algunos logran escapar. Aquí tienes algunas de las cosas que les hacen la vida más difícil y mantienen tu sitio limpio y útil:
Asegúrate de que dispones de elementos de seguridad en tu sitio
, como
CAPTCHA
, para dificultar la creación masiva de cuentas a los spammers. Vigila comportamientos poco comunes, como miles de cuentas de usuario nuevas creadas a partir de la misma dirección IP, nuevos usuarios que envian miles de solicitudes de amistad, etc. No hay una solución sencilla para este problema, pero a menudo simples comprobaciones evitan los tipos de spam más severos.
Dispón de una lista negra
, para evitar así intentos de spam repetitivos. A menudo vemos muchos perfiles spam enlanzando todos al mismo dominio, así que si encuentras uno, esto debería facilitar la eliminación de todos los demás.
Vigila las
vulnerabilidades de cross-site scripting (XSS)
[inglés]
y otros agujeros de seguridad que permiten a los spammers inyectar código malicioso en las páginas de perfil. Hemos visto la utilización de técnicas como JavaScript para redirigir a los usuarios a otros sitios, iframes para distribuir malware y código CSS personalizado para llenar tu página con contenido spam.
Considera aplicar el
atributo nofollow
a los enlaces de páginas de perfil de usuarios que no son de confianza
. Esto hace que tu sitio resulte menos atractivo para cualquiera que intente pasar PageRank de tu sitio a su sitio spam. Los spammers parecen ir a las opciones rápidas, así que aplicar nofollow a los nuevos perfiles que presenten señales sospechosas contribuirá en gran medida a mitigar el problema. Por otro lado, también podrías considerar eliminar el atributo nofollow a los enlaces creados por los miembros de la comunidad que son de confianza, como aquellos que generan contenido significativo de forma regular.
Considera la posibilidad de
no indexar las páginas de perfil
de los nuevos usuarios que aún no consideras de confianza
. Puede que incluso quieras hacerlas completamente privadas, especialmente si la mayor parte del contenido de tu sitio está en blogs, foros u otros tipos de páginas.
Añade la función "reportar spam " a los perfiles de usuario y las solicitudes de amistad
. Tus usuarios pueden ayudarte a solucionar el problema, ya que también cuidan de la comunidad y también les resulta molesto el spam.
Vigila que tu sitio no tenga páginas spam
. Una de las mejores herramientas para esto es
Alertas de Google
, configura un sitio y realiza búsquedas de carácter comercial o de contenido adulto que no esperas encontrar en tu sitio. También es muy útil para
detectar páginas hackeadas
. Además, puedes
comprobar los datos de la sección Palabras clave en las Herramientas para webmasters
, por si encuentras cualquier cosa extraña e inesperada.
Vigila los picos de tráfico para consultas sospechosas
. Siempre es genial ver que las visitas de tu sitio aumentan, pero presta a tención a consultas de tipo comercial o de contenido adulto que no encajan con el contenido habitual de tu sitio. En casos como este, en los que un spammer ha abusado de tu sitio, ese tráfico beneficiará en nada o casi nada a tu sitio, además de presentarse a tus usuarios como “el sitio que me redirigió a ese virus”.
¿Tienes otros consejos que compartir? ¡Escríbenos un comentario! Para cualquier duda, siempre puedes consultar el
Foro de ayuda para webmasters
.
Publicado por Jason Morrison, equipo de Calidad de búsqueda (Traducido por Cristina, equipo de Calidad de búsqueda).
Vamos a hacer la web más rápida
viernes, 3 de julio de 2009
Desde la construcción de centros de bases de datos en diferentes partes del mundo hasta el diseño de interfaces de usuario eficientes, en Google siempre nos esforzamos por ofrecer una mayor rapidez en nuestros servicios. Nos centramos en la velocidad como requisito fundamental para el desarrollo de productos e infraestructuras, ya que
nuestras investigaciones
[inglés]
indican que la gente prefiere aplicaciones de respuesta rápida. A lo largo de los años, a través de una experimentación continua, hemos identificado algunas de las prácticas recomendadas que
nos gustaría compartir
.
Estamos encantados de poder
comentar
[inglés]
todo lo que hemos aprendido sobre rendimiento web. Sin embargo, para optimizar la velocidad de aplicaciones web y navegar tan rápido como pasar las páginas de una revista, tenemos que trabajar juntos como comunidad, para hacer frente a algunos retos más grandes que hacen de la web aún un sitio lento y que obstaculizan así el uso de todo su potencial:
Muchos de los protocolos básicos de Internet y de la Web se desarrollaron cuando la banda ancha y las aplicaciones web interactivas ricas estaban empezando. Las redes se han vuelto mucho más rápidas en los últimos 20 años, y gracias a la colaboración para actualizar protocolos como HTML y TCP/IP hemos podido crear una mejor experiencia web para todos. Un gran ejemplo de comunidad trabajando unida es
HTML5
. Con funciones HTML5 como AppCache, los desarrolladores tienen ahora la posibilidad de escribir aplicaciones web en JavaScript que se ejecutan al instante y funcionan y parecen aplicaciones de escritorio.
En la última década, hemos visto cerca de una gran
mejora en la velocidad de JavaScript
. Los desarrolladores de navegadores y las comunidades en torno a ellos necesitan mantener este enfoque reciente en la mejora del rendimiento para que el navegador se convierta en la plataforma de más aplicaciones ricas en funciones y computacionalmente complejas.
Muchos sitios web pueden ser más rápidos fácilmente, y un esfuerzo colectivo en mejorar el rendimiento puede hacer que toda la web sea más rápida. Herramientas como
YSlow
[inglés]
de Yahoo! o nuestro reciente
Page Speed
[inglés]
ayudarán a los desarrolladores a crear aplicaciones más rápidas y receptivas. Como comunidad, es necesario invertir más en el desarrollo de una nueva generación de herramientas para la medir el rendimiento, elaborar diagnósticos y optimizar de manera sencilla.
Aunque en la actualidad hay más de 400 millones de abonados a la banda ancha en todo el mundo, la penetración de banda ancha sigue siendo relativamente baja en muchas zonas del mundo. Se han llevado a cabo medidas para llevar los beneficios de la banda ancha a más personas, como
la decisión de la Comisión Federal de Comunicaciones
[inglés]
para abrir el espectro analógico, de los que la comunidad de Internet, incluido Google, fue un fuerte defensor. Llevar los beneficios del acceso a banda ancha fiable y barata en todo el mundo debe ser uno de los objetivos principales de nuestro sector.
Para saber lo que los
Googlers
piensan sobre la aceleración de la web, mira este vídeo (con opción de subtítulos del traductor automático en español). Si tienes ideas, ¡
compártelas
[inglés]
con el resto de la comunidad! ¡Vamos a trabajar todos juntos para hacer la web más rápida!
Publicado por Urs Hoelzle, SVP, Operations, y Bill Coughran, SVP, Engineering (Traducido por Cristina, equipo de Calidad de búsqueda).
Etiquetas
Academia para webmasters
4
accesibilidad
27
acciones
1
acciones manuales
4
ajax
1
alt
1
amp
10
analíticas de Google
1
angular universal
1
anomalias
1
api
2
api psi
1
api search analytics
2
articulos
2
artículos
1
asistente
1
avanzado
16
blog
2
Botón +1
7
búsqueda
2
busqueda de google
1
calidad
1
casos de exito
1
centro de ayuda
1
centro de datos
1
certificación
1
certificado
1
chrome
3
chromium
1
cobertura del índice
3
cocina
1
codelab
1
codigo fuente
1
colaboradores principales
1
comentarios
1
comunicación
23
comunidad
1
conexión cifrada
1
consejos
99
consola de firebase
1
contenido
1
contenido duplicado
1
criterios de posicionamiento
2
cuadro de busqueda
2
danny sullivan
1
data-nosnippet
1
datos agregados
1
datos de campo
1
datos de experimentos
1
datos estructurados
16
dcl
1
desarrolladores
2
devtools
1
diagnostico
1
directrices para webmasters
30
directrices tecnicas
1
discover
1
diseño adaptable
1
DOM Content Loaded
1
dominio
1
empleo
3
empresa local
1
enlaces
9
enlaces artificiales
1
enlaces fraudulentos
1
errores de marcado
1
evaluadores
1
event
1
eventbrite
1
evento global
1
eventos
23
experiencia de usuario
1
experto de producto
1
experto producto
1
expertos de producto
2
expertos producto
2
express.js
1
facturacion
1
faq
1
fcp
1
fechas
2
ficha de empresa
1
First Contentful Paint
1
flujo de validación de problemas
1
foro
26
foro de editores
1
fragmentos de texto
1
fragmentos destacados
1
github
1
google analytics
1
google cloud platform
1
google i/o
1
google imágenes
2
google news
1
google noticias
1
google play instant
1
guía inicio rápido
1
guia seo
1
herramientas para webmasters
123
home
1
horas
1
html
5
http
1
https
3
imagenes
1
indexacion
2
indexing
1
informe de recetas
1
informe de rendimiento
5
informe de transparencia
1
informe spam
1
inspección de url
4
iso 8601
1
javascript
1
jobposting
2
jobrapido
1
kitten corner
1
lighthouse
3
logotipo
2
max-image-preview
1
max-snippet
1
max-video-preview
1
metaetiqueta
1
mfi
1
middleware
1
móvil
21
moviles
1
navegación segura
2
no segura
1
no seguro
1
nosnippet
1
optimizar sitio web
1
oro
1
pagespeed
3
penguin
1
pki
1
plata
1
platino
1
politicas de contenido
1
prácticas recomendadas
2
preguntas y respuestas
1
producto
1
productos y servicios
40
prueba de optimizacion para moviles
1
rakuten
1
rastreo e indexación
100
recaptcha
1
receta
1
recetas
1
reconsideraciones
2
renderizado dinamico
1
Rendertron
1
rendimiento
12
reseña
1
resultados de búsqueda
94
resultados enriquecidos
2
robot
1
robot noindex
1
ruta de navegacion
1
safe browsing
1
Search Console
20
seguridad
13
servidor
1
site clinic
10
Site Reliability Engineering
1
sitemaps
14
sitios pirateados
1
software malicioso
1
software no deseado
1
spam
2
ssl
1
symantec
1
tarifas
1
titulares
1
tls
1
twitter
4
url
1
url canonica
1
url canonicas
1
url de referencia
1
usuarios destacados
1
velocidad
3
verificacion dns
1
vídeo
82
videos
1
web light
1
webmaster
2
webspam
3
youtube
1
zona horaria
1
Archivo del blog
2020
nov
sept
ago
jul
jun
may
abr
mar
feb
ene
2019
dic
nov
oct
sept
jun
abr
mar
feb
ene
2018
dic
nov
oct
jul
jun
may
abr
feb
ene
2017
dic
nov
sept
ago
jul
jun
abr
mar
ene
2016
nov
sept
ago
may
abr
mar
ene
2015
dic
nov
oct
sept
ago
jul
may
abr
mar
ene
2014
nov
oct
sept
ago
jun
may
abr
mar
feb
ene
2013
oct
sept
ago
jul
jun
may
abr
mar
feb
ene
2012
dic
nov
oct
sept
ago
jul
jun
may
abr
mar
feb
ene
2011
dic
nov
oct
sept
ago
jul
jun
may
abr
mar
feb
ene
2010
dic
nov
oct
sept
ago
jul
jun
may
abr
mar
feb
ene
2009
dic
nov
oct
sept
ago
jul
Consejos sobre búsqueda orgánica: optimiza tu siti...
Google Friend Connect, ¡ahora en 47 idiomas!
Actualización de las Herramientas para webmasters:...
¿Vas a migrar tu sitio? Prácticas recomendadas
Hacer la información universalmente accesible y útil
Bajadas de tráfico y arquitectura de sitios web
Spam 2.0: Cuentas de usuario y perfiles spam falsos
Vamos a hacer la web más rápida
jun
may
abr
mar
feb
ene
2008
dic
nov
oct
sept
Feed
Follow @googlewmc
Recursos para webmasters
Foro para Webmasters
Centro de Asistencia
Google Search Console
Google Webmaster en castellano