Escrito por Fernando Maciá
Índice
Anticipar lo que va a ocurrir en el futuro –incluso aunque ese futuro sea inmediato- es tarea arriesgada. Si de lo que hablamos es de Internet, entonces más que de un ejercicio de prospectiva, podemos estar tratando de ejercer las artes de la más pura adivinación. A pesar de todo, las empresas debemos trabajar dentro del marco de los escenarios posibles que podemos intuir para el futuro, de forma que podamos establecer una estrategia que nos permita estar preparados para los cambios antes de que se produzcan. Como fue Bill Gates quien dijo en una ocasión que 640 Kb de memoria (RAM) deberían bastar para todo el mundo, acepto humildemente la posibilidad más que probable de equivocarme y me propongo trazar en las siguientes líneas un bosquejo de lo que desde Human Level Communications anticipamos para este año, dentro del crecientemente competido y aceleradamente cambiante sector del marketing en buscadores.
Todos contra uno y uno contra todos
Concentración de buscadores
2005 culmina un proceso de concentración de buscadores que ha dejado tres protagonistas indicustibles. Google como -todavía- indiscutible líder, Yahoo! y MSN Search. Estos tres buscadores suponen entre el 85% y el 95% de todo el tráfico procedente de buscadores/directorios que llega a una web y sus bases de datos alimentan los resultados de otros muchos buscadores y metabuscadores que, o bien han caído en la órbita de Yahoo! (léase AltaVista, All the Web, Overture, Inktomi) o bien beben en el caudal de Google (Netscape, AOL, Terra, Lycos…). Mientras, el gigante Microsoft pone a punto su propia tecnología de buscador, todavía en fase beta, en MSN Search.
Las áreas donde se prevé el mayor enfrentamiento entre estos tres colosos y que mayor incidencia pueden suponer sobre el marketing en buscadores son las siguientes:
- Calidad en los resultados orgánicos : sólo el tiempo y el mercado decidirán qué buscador es capaz de producir los mejores resultados orgánicos (no de pago). Google cuenta con la más amplia experiencia en este terreno, mientras que Yahoo!, a partir del know-how de uno de los líderes en este terreno -Inktomi- al que adquirió, ha desarrollado su propio algoritmo de indexación de websites. El reptante de MSN Search lleva ya más de un año recorriendo la web para generar la propia base de datos de este buscador de Microsoft.
- Búsqueda local: utilizar un buscador para encontrar, por ejemplo, la pizzería más cercana a nuestra propia localización introduce un factor de segmentación geográfica clave para el éxito de la estrategia en buscadores de muchos negocios on-line que, a pesar de la universalidad del medio, se enfocan hacia un mercado geográficamente limitado. Google y Yahoo! ya han dado los primeros pasos en este sentido y MSN Search los seguirá muy pronto.
- E-mail gratuito: Yahoo! Mail y MSN Hotmail se repartían el liderazgo en las cuentas de correo gratuitas. Google se sacó de la manga Gmail, una cuenta gratuita de correo de 1Gb de capacidad dentro de un modelo de negocio de publicidad contextual, mediante el análisis automatizado de los contenidos de los mensajes, que hirió las susceptibilidades de los más férreos defensores de la privacidad de las comunicaciones. Yahoo! Mail ha reaccionado rápidamente elevando la cuota de su correo gratuito hasta los 250 Mb y ofertando una modalidad, Mail Plus, que por menos de 20$ anuales dobla el espacio ofrecido por Google. De nuevo Microsoft queda detrás en esta pugna, aunque ha elevado la cuota de espacio de Hotmail hasta 250 Mb, por lo que será interesante ver cuál es la respuesta de MSN a este órdago de Google.
- Búsqueda en el escritorio: como otros muchos avances notables en la informática, la idea de una búsqueda web integrada con la búsqueda sobre el propio disco duro local del usuario no es nueva: otra vez Apple se adelantó con su herramienta Sherlock, presente desde hace varias versiones en su sistema operativo MacOS. Pero ha sido Google Desktop la primera aplicación similar de este principio en el universo de Windows, y de nuevo le gana la batalla en su propio campo al gigante de Redmond ante la posibilidad de que Microsoft intentara integrar en la próxima versión de Windows su propia herramienta MSN Search, como antes lo hizo con el navegador Explorer (lo que, a la postre, dejó herido de muerte a Netscape Navigator).
Nuevos actores
La búsqueda personalizada -Eurekster- o los resultados interrelacionados por categorías –Kartoo– son un ejemplo de algunas de las arriesgadas apuestas que los nuevos actores en la arena de la búsqueda web están desarrollando para desafiar el liderazgo de los tres gigantes. Todavía hay mucho por experimentar en Internet y la anterior experiencia de una empresa que nació en un garaje, Google, y que desafió y venció -al menos de momento- al gigante Yahoo! anima a muchos emprendedores a asumir de nuevo el papel de David contra Goliat.
Optimiza, optimiza, que algo queda
El éxito de Google demostró que los usuarios emplearían aquellos buscadores capaces de generar resultados que situaran en las primeras posiciones las páginas más pertinentes para los criterios de búsqueda definidos. Frente a esta loable misión, los webmasters primero y los expertos en posicionamiento después, han tratado de situar sus websites en los puestos más altos, en el máximo número de categorías con el fin de obtener el mayor caudal posible de tráfico. El tiempo de los “trucos” -saturación de keywords, texto escondido o invisible, saturación de metatags, link farms, websites espejo, continuas solicitudes de alta en el buscador- pertenece al pasado. Los algoritmos de los buscadores han descubierto cada nuevo “truco” casi al mismo ritmo que los “expertos” descubrían y aprovechaban los puntos débiles de los reptantes. Este proceso de mutuo enfrentamiento ha desembocado en un perfeccionamiento recíproco: los algoritmos de búsqueda son ahora más difíciles de “engañar”, por lo que progresivamente son capaces de aportar resultados más pertinentes ordenados por una jerarquía que beneficia al usuario del motor de búsqueda. Por otro lado, los webmasters han descubierto que es más importante identificar correctamente el nicho de mercado al que se dirigen y generar un contenido rico, de calidad y constantemente actualizado, dentro de estructuras de sitio web con un código depurado, usables y accesibles que abusar de un lenguaje absurdo para “gustar” solamente a Googlebot.
En el terreno de la optimización web, el marco de actuación inmediato se centra en las siguientes áreas:
- Sentido común : ¿qué sentido tiene aparecer el primero en una búsqueda si cuando el visitante aterriza en nuestra página se encuentra con un lenguaje repetitivo, absurdo, y estructuras de enlaces confusas? O lo que es lo mismo, ¿tenemos un website para tener muchos visitantes o para tener muchos clientes? Aparecer el primero en la búsqueda es tener el prospecto en la puerta de la tienda. Hasta que escoja algo y pague (y se convierta en cliente) aún falta mucho.
- Profesionalización : el tiempo de los “trucos” de optimización ha pasado. Hoy, la labor de optimización es terreno de auténticos expertos capaces de generar estructuras de navegación coherentes, un lenguaje significativo para el buscador y natural para el visitante, enlaces entrantes desde webs suficientemente importantes y significativas y una consultoría en la que se pueda identificar el nicho de mercado de cada website y las palabras clave que generarán el mayor nivel de conversión de visitantes del website en clientes.
- Contenido : generar contenido original y de calidad es una de las inversiones más eficientes, en términos de retorno sobre la inversión, que se pueden acometer. Escribir artículos, participar como moderador en foros o chats, desarrollar e-books o newsletters se traduce, en el mundo de redes que es Internet, en una rápida afluencia de tráfico cualificado no sólo formado por clientes, sino por proveedores, colaboradores, posibles partners…
- Enlaces entrantes : los enlaces que desde otras webs importantes y de temas relacionados apuntan hacia nuestra web son una de las formas más eficaces de obtener tráfico cualificado hacia nuestro website. Y esto por varias razones.
- Aparecer como enlace recomendado en portales importantes nos posiciona como expertos o líderes en nuestro sector ante nuestros clientes potenciales (y nuestra competencia)
- Los enlaces que apuntan a nuestra web contribuyen a aumentar nuestro PageRank, la medida de popularidad con que Google expresa la importancia de un website (y uno de los parámetros que tiene en cuenta a la hora de situar nuestra web en sus resultados)
- Los enlaces entrantes desde otras webs producen más tráfico cualificado de forma directa (las personas que hacen click en dichos enlaces) e indirecta (las personas que hacen click en Google por aparecer en mejores puestos, gracias a la popularidad de nuestra web).
- Usabilidad : para que una web obtenga un buen rendimiento (ya sean ventas, contactos, visitas de calidad) es necesario no sólo que esté optimizada para buscadores, es decir, indexable (search engine friendy) sino optimizada para el usuario, es decir, usable (user friendly). Por ello es importante tener en cuenta los criterios de usabilidad a la hora de diseñar la navegación, maquetación y contenidos de la web.
- Retroalimentación : a la hora de optimizar, no podemos obviar qué terminos de búsqueda y qué buscadores y otros referentes son los que producen la mayor tasa de conversión a clientes. A partir del análisis de estos datos, de forma continuada, seguiremos reoptimizando nuestra web no para obtener el mayor número de primeros puestos en buscadores, sino para conseguir la mayor rentabilidad (que es de lo que se trata).
De la información al conocimiento
Conversión
Es de lo que más vamos a oir hablar durante 2005. Conseguir que un porcentaje cada vez más alto de visitantes se convierta en clientes va a ser el auténtico objetivo para este año. Conseguir primeros puestos en buscadores, aun siendo una de las inversiones más rentables, cuesta dinero. Pero aún es más caro afrontar una campaña de AdWords o cualquier otra forma de Pay-per-Click. Y, a mayor nivel de tráfico, también se incrementa el coste del ancho de banda consumido y, en ocasiones, incluso del registro estadístico del tráfico. Es por ello por lo que se va a primar la calidad del tráfico por encima de la cantidad. Esto requerirá una concentración de esfuerzos en dos aspectos: posicionamiento por un lado, medición de resultados por otro.
Posicionamiento
Valdrá la pena invertir más tiempo en identificar y seleccionar los conceptos clave para nuestro nicho de mercado. Así como los buscadores y portales de valor añadido más eficaces para encaminar tráfico de calidad a nuestra web. Los mayores esfuerzos se van a concentrar en:
- La optimización dejará de ser patrimonio de unos pocos. Es previsible que la generalización de los procedimientos de optimización web tiendan a desplazar la competencia entre webs del mismo sector del ámbito de los “trucos” de optimización (metatags, saturación de términos clave, etc.) al de la riqueza, la usabilidad y genuino interés para los usuarios de los contenidos de las webs, así como las referencias a las mismas en forma de enlaces entrantes.
- Código de calidad. Son cada vez más los portales que emplean código XHTML 1.0 y hojas de estilo en cascada CSS 2.0 para la sintaxis de sus páginas web. La flexibilidad y posibilidad de personalización del diseño y la mayor rapidez en la descarga que supone este tipo de código conlleva el beneficio añadido de una mayor accesibilidad e indexabilidad.
- Localización de contenidos . Más allá de la simple traducción de textos, las webs que apuntan a una audiencia global tienden a “localizar” sus contenidos en función de las peculiaridades lingüísticas e idiosincráticas cada país. En Estados Unidos, se empieza a considerar las posibilidades que abre el jugoso mercado de hispanos, convertidos ya en la primera minoría del país. La realidad multicultural europea exige la adaptación de las webs a una variedad de idiomas e intereses aún mayor. Y no podemos obviar el creciente interés que las audiencias china y árabe empiezan a despertar en Occidente.
- Usabilidad y accesibilidad. Dos principios que, además de mejorar y facilitar que nuestros usuarios se conviertan en clientes, implican una mayor responsabilidad social por las minorías y, generalmente, un aumento en el grado de indexabilidad de nuestras webs por los buscadores.
Análisis del tráfico web
Los informes de posicionamiento y las estadísticas de tráfico “en bruto” dejan, pues, de tener sentido si se toman como única medida del éxito de una web. Nos habremos de concentrar en seleccionar las medidas más significativas del rendimiento de nuestra web (los denominados Indicadores Clave de Rendimiento) y establecer una pauta de análisis continuo que nos permita identificar tendencias y anticipar cambios. Para tener éxito, este tipo de análisis debe cumplir estas condiciones:
- Cada departamento establece qué medidas son sus indicadores de rendimiento: porcentaje que el buscador interno de productos ha dado un resultado satisfactorio, porcentaje de consultas resueltas en el apartado de soporte, proporción de participación en el tráfico de las diversas secciones, porcentaje de productos añadidos al carrito de compra, porcentaje de compras concluidas con éxito, valoración de los artículos por los visitantes, recomendaciones de la página a otros usuarios, contactos efectuados…
- A partir de estos indicadores, que habrá que identificar en cada caso, conviene planear un calendario de seguimiento periódico de los distintos datos. En lugar de recibir cientos de datos sobre el tráfico de la web, el responsable de cada departamento se concentra así en unas pocas medidas a las cuales sí que puede hacer el seguimiento de forma continua.
- Este seguimiento sí permite a cada responsable plantear acciones de mejora e identificar, en las mediciones posteriores, si dichas acciones han tenido éxito o no, pues se concentran sólo en un área y tienen medidas específicas que indican dicho rendimiento, con lo cual se pueden introducir medidas correctoras.
- A partir de estas medidas, el ciclo se inicia de nuevo.
Conclusión
La concentración de los buscadores en tres actores principales -Google, Yahoo! y MSN Search- viene a simplificar de alguna manera la labor de posicionamiento en buscadores. No obstante, la generalización de este tipo de estrategias comienza a borrar la ventaja competitiva que ha supuesto durante un tiempo para los primeros websites que optimizaron sus páginas para “gustar” más a los buscadores. A partir de ahora, la batalla del posicionamiento se desplaza de los “trucos” de falsos expertos a aspectos más esenciales y, al tiempo complejos: optimización de metatags, sí, pero también riqueza de contenido, corrección de código, generación de contenidos para otras webs, participación en foros y chats, búsqueda activa de partners y enlaces entrantes, formación on-line, usabilidad, accesibilidad… Y en este escenario, el perfeccionamiento de los métodos de análisis de tráfico, cada vez más sofisticados, de los que podemos extraer valioso conocimiento para nuestras decisiones de marketing, no ya sólo en cuanto a nuestra presencia on-line sino también en el mundo off-line. Y, para terminar, todo esto puede demostrarse dentro de un año que es perfectamente falso… Pero para eso todavía falta un año y, como corregir es de sabios, partiremos de esta base y estaremos atentos a la evolución de este sector apasionante para evitar que el “tsunami” tecnológico nos pille a contrapié.