Escrito por Fernando Maciá
Índice
- Los gestores de contenido
- CMS y posicionamiento en buscadores: ¿una simbiosis imposible?
- Hacer del gestor de contenido la mejor herramienta SEO
- Crear un mapa del sitio
- Generar páginas con URLs amigables
- Limitar el nivel de subdirectorios
- Conectar el control de validación de enlaces del CMS
- Dejar el control del archivo robots.txt al webmaster
- Evitar URLs duplicadas
- Evitar variables de sesión en la URL
- Reducir el código basura
- Seleccionar la opción de texto para la navegación del sitio
- No olvidar que existen los encabezamientos
- Exigir la creación de un título único, y la adición de metaetiquetas relevantes
- Requerir cumplimentar la etiqueta alt al añadir una imagen al contenido
- Implementar controles para evitar la publicación de contenido duplicado
- Animar a usar textos descriptivos en enlaces
- Lo mejor de ambos mundos
Tener en cuenta los aspectos de optimización web para el posicionamiento en buscadores a la hora de implementar un gestor de contenidos puede evitar que nuestra inversión en contenidos quede devaluada por una pobre presencia en los buscadores.
Los gestores de contenido
La generación, publicación y archivo de un enorme número de páginas en los grandes portales y sitios Web plantea múltiples retos que los sistemas de gestión de contenidos web (o CMS, de Content Management System) han tratado de resolver en los últimos años:
- Facilitar la generación y edición de contenidos para la Web por parte de personal sin formación específica en programación.
- Asegurar una apariencia homogénea de todos los contenidos y su presentación de acuerdo con un diseño corporativo y con una línea editorial predefinida.
- Mantener una coherencia en la estructura de los sitios Web, permitiendo la incorporación de nuevos contenidos en las secciones adecuadas tras la aprobación y el control previo de las personas indicadas.
- Mantener una navegación consistente que permita a los usuarios llegar a cada uno de los contenidos que están publicados en cada momento.
- Evitar la existencia de contenido duplicado (distintas direcciones URL que muestran un mismo contenido), contenido huérfano (archivos que quedan en el servidor de forma innecesaria ya que son páginas a las que ya no apunta ningún enlace o archivos de imagen o multimedia que se mostraban en páginas suprimidas) o bien enlaces rotos, que apuntan a páginas que no existen en el servidor.
Los gestores de contenidos o CMS son herramientas de software que permiten descentralizar las labores de mantenimiento del contenido de un portal, de forma que personal no técnico de los distintos departamentos de una empresa puede añadir, editar y gestionar su propio contenido en una Web corporativa.
CMS y posicionamiento en buscadores: ¿una simbiosis imposible?
Sin embargo, y a pesar de sus evidentes ventajas, el enfoque tradicional de este tipo de herramientas se ha centrado en facilitar al máximo la gestión de los contenidos simplificando los procesos de producción, aprobación y publicación de los mismos, más que en generar páginas web debidamente optimizadas para ser competitivas en los buscadores.
Entre los problemas que, desde el punto de vista de la optimización para el posicionamiento en buscadores, aparecen de forma recurrente en los portales soportados por sistemas gestores de contenido, destacan los siguientes.
URLs dinámicas
Los buscadores limitan en ocasiones el número de variables dinámicas presentes en las URLs que indexan. Las páginas generadas por muchos gestores de contenidos incluyen frecuentemente un elevado número de variables dinámicas en su dirección URL.
Títulos únicos
El título de una página es uno de los factores más importantes a la hora de posicionar bien en buscadores un contenido. Sin embargo, muchos sistemas gestores de contenidos no permiten a los usuarios asignar un título único relevante a cada página.
Falta de soporte para metaetiquetas
Muchos CMS no disponen de campos específicos para que el usuario pueda especificar el contenidos de las metaetiquetas Keywords y Description. Aunque no son tan importantes como el título para lograr una buena posición en los buscadores, estas etiquetas siguen jugando un papel relevante a la hora de que el usuario prefiera hacer click sobre nuestro sitio en una página de resultados de búsqueda.
Ausencia de palabras clave en las URL
Las URLs dinámicas generadas por muchos sistemas de gestión de contenido suelen ser poco amigables tanto para el usuario como para los buscadores, y no incluyen términos de búsqueda que contribuyen a un mejor posicionamiento.
Imposibilidad de una optimización posterior
El proceso de producción de contenidos que impone el uso de un sistema CMS dificulta enormemente la optimización a posteriori de los contenidos generados y, en el mejor de los casos, añade una carga de trabajo extra que podría evitarse si los aspectos SEO se hubieran tenido en cuenta en la implementación del gestor.
Hacer del gestor de contenido la mejor herramienta SEO
Resulta, pues, paradójico que precisamente sean aquellas empresas que más recursos invierten en el mantenimiento y generación de nuevos contenidos para sus portales las que, al mismo tiempo, menos se beneficien del volumen que dicho tráfico podría movilizar debido a una pobre implementación de sus sistemas de gestión de contenidos, desde el punto de vista del posicionamiento en buscadores. Un fallo que, en muchos casos, no se debe a carencias de la herramienta en sí, sino a un desconocimiento por parte de los técnicos que la implementan de la importancia que tiene que los contenidos generados por ella puedan ser competitivos en los buscadores.
Pero, de la misma forma que un gestor de contenidos mal implementado puede mermar el rendimiento de la inversión en generación de contenidos de un portal, uno que haya tenido en cuenta los aspectos básicos de la optimización web para el posicionamiento en buscadores puede ser el aliado más eficaz para generar contenidos que conseguirán escalar los puestos de las búsquedas más competidas. Veamos cómo.
Los gestores de contenido parten de plantillas prediseñadas, que los usuarios no pueden alterar, para generar las nuevas páginas. Si validamos el código de estas plantillas en origen, nos aseguramos de que las páginas generadas a partir de ellas contendrán también código válido. El empleo de código válido asegura que la página se mostrará correctamente en los distintos navegadores y que los buscadores serán capaces de rastrearla sin problemas.
Crear un mapa del sitio
Casi todos los gestores de contenidos permiten crear y mantener actualizado un mapa del sitio. Los buscadores limitan el número de enlaces que pueden seguir a 100 por página y han de ser enlaces normales de texto HTML. Si ajustamos nuestro gestor de contenido para que genere y mantenga un mapa jerárquizado del sitio web con estas premisas, facilitamos a los buscadores que puedan rastrear todas y cada una de las páginas de nuestro sitio web.
Generar páginas con URLs amigables
Algunos gestores de contenido generan archivos estáticos cuyas URL no contienen variables dinámicas, mientras que otros emplean direcciones URL con múltiples parámetros dinámicos, como por ejemplo: http://www.midominio.org/portal/site/Equipo /menuitem.6dab26af2ec93c76a68e76b1805101ca/?vgnextoid=88c8c55c1edb7010VgnVCM100000081510acRCRD. Entre éstos últimos, algunos permiten crear URL alias más amigables (conteniendo palabras clave o eliminando los parámetros dinámicos) que después el sistema sustituye internamente por la URL dinámica que precisa. En igualdad de condiciones, elijamos un CMS que genere direcciones URL ricas en palabras clave o con un reducido número de parámetros dinámicos. Direcciones URL como la del ejemplo son muy poco usables así como poco amigables para los buscadores.
Limitar el nivel de subdirectorios
Los buscadores dan mayor importancia a una página cuanto más cerca está de la página home del portal. Es por esto que debemos limitar el número de subdirectorios que muestra la URL: muchos gestores de contenidos permiten organizar jerárquicamente el contenido independientemente de la localización física de los archivos en el servidor, presentando URLs mucho más sencillas que la estructura real del directorio correspondiente. Por ejemplo, la URL https://www.midominio.com/Viajes/Destinos/Ciudades/MasInfo/Datos Generales/Congresos/Congresos_negocios.htm hace que este contenido esté situado seis niveles de profundidad por debajo de la página home.
Conectar el control de validación de enlaces del CMS
La mayoría de gestores controla la publicación de enlaces rotos que apuntan a contenidos controlados por el propio gestor, pero pocos validan que un enlace que apunta a una web externa no es un enlace roto. Si el control existe, asegurémonos de conectarlo para impedir que un usuario pueda introducir un enlace hacia una página web inexistente.
Dejar el control del archivo robots.txt al webmaster
Algunos gestores de contenidos permiten editar el contenido del archivo robots.txt por parte del autor de una página. En general, es mejor que sólo el webmaster controle el contenido de este archivo para impedir que, por desconocimiento, un usuario pueda bloquear el rastreo de los robots de una importante parte de la Web.
Evitar URLs duplicadas
Los buscadores son tremendamente selectivos a la hora de castigar el contenido duplicado de una Web, de modo que debemos asegurarnos de que cada página sólo existe bajo una única URL. En cualquier caso, si queremos que los usuarios puedan llegar a un mismo contenido desde URLs homólogas, es mejor programar redireccionamientos permanentes 301, que no son castigados por los buscadores.
Evitar variables de sesión en la URL
Si nuestro portal realiza transacciones electrónicas o algún otro proceso que requiera mantener el estado del cliente, es preferible emplear una cookie de sesión que una variable de sesión que aparece en la URL. La razón es que si los buscadores detectan esto, se abstendrán de rastrear la página para evitar indexar como páginas distintas la misma, pero con distinta variable de sesión. Por ejemplo: https://www.midominio.com/index.php?module=Health&action=DefaultIndex&PHPSESSID=98ab41f9acd8c74df4b6e063985bda8d. En esta URL podemos ver que existe un parámetro de identificación de la sesión (PHPSESSID) que, si es detectado por los buscadores, impedirá que la página sea rastreada, ya que sucesivas visitas del buscador archivarían como páginas distintas ésta misma, en la que únicamente cambiaría el valor del identificativo de sesión. En cualquier caso, se debe restringir el empleo de identificadores de sesión exclusivamente a las áreas del portal en los que sea absolutamente necesario.
Reducir el código basura
Simplificar el código HTML que emplean las plantillas y optar por usar Hojas de Estilo en Cascada (CSS) en lugar de tablas para maquetar el contenido. El empleo de Hojas de Estilo en Cascada facilita la actualización del diseño de una Web, reduce considerablemente el peso de los archivos (la maquetación viaja una sola vez del servidor al usuario, después está ya disponible en la memoria temporal o caché del navegador para las siguientes páginas visitadas) y da mayor preponderancia al contenido significante de la página respecto al peso total del código de la misma.
Evitando siempre que sea posible el uso de menús Javascript o Flash, ya que sus enlaces no pueden ser seguidos por los buscadores. En muchos casos, podremos lograr con el uso de CSS efectos parecidos a los de los menús Javascript o Flash. Si el gestor de contenidos permite crear un rastro de migas de pan (breadcrumb), activémoslo. Mejora la usabilidad del sitio, ayuda a situarse al usuario en el conjunto de la estructura de la web y es un inmejorable atajo para que los buscadores rastreen todo el contenido.
No olvidar que existen los encabezamientos
El uso de estilos nos hace olvidar la existencia de etiquetas HTML de jerarquía (H1, H2, H3, etc.) cuyo aspecto visual final podemos modificar también con estilos, pero que ayudan a los buscadores a entender mejor la estructura lógica de la página y señalizan qué aspectos son más importantes. Es por ello importante animar a los editores de contenido a usar encabezamientos en lugar de simplemente definir el texto más grande o más pequeño con font size y, si es posible, limitar a un único encabezamiento de máximo nivel (H1) por página.
Exigir la creación de un título único, y la adición de metaetiquetas relevantes
Programar el CMS de tal forma que la cumplimentación de título y metaetiquetas sea un requisito para la publicación del contenido y, si es posible, activar un control para comprobar la unicidad del título.
Requerir cumplimentar la etiqueta alt al añadir una imagen al contenido
Esta etiqueta permite a los buscadores indexar mejor las imágenes, colabora en la relevancia de los términos clave de la página y mejora la accesibilidad a los contenidos por parte de las personas con problemas de visión.
Implementar controles para evitar la publicación de contenido duplicado
Muchos gestores de contenidos incluyen formas de evitar que se pueda añadir contenido duplicado. Junto con el control de thin content, esta es una de las formas más interesantes de evitar penalizaciones por Google Panda.
Animar a usar textos descriptivos en enlaces
En lugar de «Haga click aquí», emplear «Más información sobre nuestro servicio de asistencia al cliente 24H».
Lo mejor de ambos mundos
Es evidente, pues, que si al implementar un gestor de contenidos para generar y mantener el contenido de un gran portal se tienen en cuenta los aspectos relacionados con la optimización web y el posicionamiento en buscadores de dicho portal podemos animar o, de alguna forma, imponer una cierta disciplina a través del propio sistema CMS que implique a los editores de contenido a crear páginas fácilmente rastreables e indexables, que puedan competir adecuadamente en los buscadores.
Las grandes empresas cuentan con la materia prima favorita de los buscadores: contenido abundante, original, dinámico y de rápida actualización. Aprovechemos toda la capacidad de los gestores de contenidos para extraer el máximo rendimiento de la inversión que efectúan en su presencia en la Red.