Presiona ENTER para ver los resultados o ESC para cancelar.

Cómo multiplicar x4 el impacto social de un blog: el Pop-Hack

Esta semana traigo dinamita pura. De la mano de Carolina Cristanchi, tienes a tu disposición un post de esos que harán historia, que guardarás en Evernote y en Pocket, porque no tiene desperdicio.

Ya aviso que no es un post para todos los públicos y que para sacarle realmente partido, deberías reservar al menos 2 o 3 horas de calidad (puedes hacerlo por partes).

Carolina me propuso publicar un post 100% práctico sobre Web Scraping, una técnica de la que todavía no he hablado y que además me daría información completamente “accionable” para aumentar la implicación de mis lectores… y yo, que soy lector de su blog, no me pude negar 🙂

Sin más, te dejo con ella, ¡que lo disfrutes!

Hace poco descubrí este hack en el blog de Noah Kagan mientras documentaba uno de mis artículos sobre Web scraping. Se trata de una auditoría del impacto social del contenido de cualquier blog para averiguar qué títulos y qué días de publicación han funcionado mejor en las redes sociales. Y lo mejor de todo, gratis y sin saber (casi) nada de programación. En otras palabras, te ayuda a indagar en las claves de la popularidad de tu contenido para aplicar ese conocimiento a tus próximos posts y multiplicar su engagement.

En este tutorial voy a enseñarte cómo analicé Growth hacking labs paso a paso. También compartiré contigo los hallazgos que hice analizando otros dos blogs muy famosos sobre marketing online. Además, como premio a tu curiosidad y constancia, al final del post encontrarás un regalo que no puedes perderte.

¿Todavía no tienes claro si esto es para ti?

Un growth hacker como tú, obsesionado con el crecimiento de un blog no puede ignorar:

  • Qué tipo de titular genera más engagement (compromiso, implicación) con tu contenido, te ahorra tiempo de copywriting
  • Qué días son mejores para recibir más comentarios para maximizar el feedback que recibe cada post
  • Qué le está funcionando a su competencia, para aprender en cabeza ajena

Herramientas y pasos para tu auditoría de impacto social

Herramientas necesarias:

  • Kimono para extraer, mediante web scraping la información básica de los artículos que quieres analizar. Te harás una cuenta gratuita durante el proceso.
  • Open Refine para consolidar los datos de los posts con los del impacto en redes sociales, limpiar y exportar los datos recopilados en formato CSV. Te lo instalarás en tu ordenador.
  • Sharedcount para consultar las estadísticas de recomendaciones de los posts que quieres analizar en las principales redes sociales.
  • Google Spreadsheets (o cualquier otra hoja de cálculo) para la parte divertida: el análisis y las evidencias jugosas! Necesitas cuenta de Google para usarlo.
  • Tiempo, paciencia y determinación. Con una tarde debería ser suficiente, pero podría llevarte algo más.

El proceso se resume en 3 pasos:

  1. Extraer los datos básicos de los posts publicados en 2014: título, fecha y número de comentarios con Kimono.
  2. Añadir las estadísticas sociales de Sharedcount a los comentarios de cada post del blog con Open Refine.
  3. Descubrir datos interesantes en Google Spreadsheets que te ayudarán a hacer crecer tu blog más rápido.

Recopilar, enriquecer y analizar datos para entender qué contenido ha generado mayor engagement con tu público, tanto por los comentarios del blog como por el número de veces que se ha compartido en redes sociales.

“Pero, Carolina, el Growth Hacking no va de regalar tráfico a las redes sociales, sino de dirigirlo hacia tu plataforma“.

¡Lo sé! Pero si no tienes un contenido a la medida de tu público y de sus necesidades, ¿cómo puedes verificar el “product-market fit”? Necesitas feedback en forma de comentarios y recomendaciones. Y no te olvides que la gente compartirá un enlace a tu blog si se lo pones fácil con plugins como SumoMe y su herramienta “Share”. Así que, ¿por qué no identificar lo que funciona con este experimento?

Cómo extraer datos web con Kimono

El objetivo es conseguir una lista con el histórico de posts del blog que quieres analizar, en un archivo CSV. Yo me he limitado al año 2014 para los 3 blogs analizados.

¿Crees que es difícil? Ni mucho menos, solo tienes que extraer los datos con una herramienta de Web scraping que hace el trabajo de “minería” por ti. Personalmente utilizo y recomiendo Kimono. También conozco y he probado Import.io, pero prefiero no tener que instalar un programa para hacer esta tarea.

Kimono funciona en tu navegador. Si utilizas Chrome, descárgate la extensión de Kimono aquí. Si prefieres otro navegador, arrastra el Kimono Bookmarklet a tu barra de herramientas. Una vez instalada la extensión o el bookmarklet navega hasta la página del blog y haz clic en el icono de la extensión o en el bookmarklet de tu barra de herramientas para activarla.

Verás que aparece una interfaz a modo de “capa” encima de la web que estás visitando, con una barra horizontal en la parte superior de tu pantalla. Esa capa te permite seleccionar los datos que Kimono buscará en el blog y volcará en una tabla descargable.

El procedimiento es sencillo, como puedes ver en este vídeo (<1min)

1. Clica en el título de un post y luego en el título del post siguiente

interfaz-kimono-activa

Kimono seleccionará automáticamente todos los títulos de los posts, los representará en la barra superior como un círculo numerado y le asignará un nombre. Por defecto “property nº”. Edítalo para que ponga “Título”.

2.  Pincha en el botón + para seleccionar las fechas

Aparecerá un nuevo círculo en la barra. Repite la operación de selección, esta vez con las fechas. Puede ocurrir que Kimono no tenga claros qué datos incluir exactamente. En ese caso, te dará la opción de incluirlo en la selección (pulsando la marca de validación en V) o de excluirlo de la misma (clicando en la X). Repite la rutina para el número de comentarios.

previsualizar-y-crear-api-kimono

 

Previsualiza los datos clicando en el icono “Data Model View” en la barra de herramientas.

previsualizar-kimono

Cuando hayas terminado, clica en “Done”. Kimono te pedirá que te crees una cuenta gratuita para ofrecerte un entorno privado desde donde podrás ejecutar el rastreo, visualizar los datos y exportarlos al formato que necesites.

Una vez creada tu cuenta, te pedirá que des un nombre al extractor de datos que has creado. Técnicamente, lo que has creado es una API: un intermediario entre los datos del blog y tú que te permite rastrear, extraer y reutilizar la información.

nombre-api-kimono

Esa API (y todas las que crees) se almacenarán en tu área de usuario de Kimono, donde podrás editarlas y hacer muchas cosas chulas con ellas.

Enseña a Kimono a navegar por el blog

En la pestaña “Data preview” verás los datos extraídos de la primera página del blog.

3. Dile a Kimono cómo navegar por el blog

Pero tú necesitas todos los posts del blog. Así que ahora vas a indicarle a Kimono cómo navegar por las páginas de archivo del blog, en la pestaña “Crawl Setup”. De ese modo, aplicará la selección de datos a todas y cada una de ellas, recuperando el título, fecha y comentarios de todos los posts del histórico de publicaciones.

crawl-setup-kimono

Para eso primero necesitas entender la lógica de la paginación del blog. Es decir, la estructura de la URL que aparece en cada una de las páginas del blog, desde la más nueva hasta la más antigua. Por algo muy simple: Kimono necesita aprender a navegar por ellas como lo haría un humano.

Para descubrir el patrón que sigue la URL de las páginas de un blog, busca algún botón o enlace que te permita ir a la página “anterior” o “siguiente” dentro del blog. Val me lo ha puesto fácil: él incluye las páginas numeradas de su blog al final, así que no he tenido que buscar mucho (¡gracias!).

OJO: este paso puede llevarte más tiempo en blogs donde no esté tan clara la estructura de navegación.

La estructura de URLs de archivo de Growth Hacking Labs es ésta:

  • 1º página del blog -> http://growthhackinglabs.com/
  • 2º página del blog -> http://growthhackinglabs.com/page/2
  • 3º página del blog -> http://growthhackinglabs.com/page/3
  • 4º página del blog -> http://growthhackinglabs.com/page/4
  • 5º página del blog -> http://growthhackinglabs.com/page/5

Para el blog de Val he establecido una “Crawl Strategy” de tipo “Manual URL list” y he pegado las URLs que acabo de mencionar. He guardado cambios. He clicado en el botón azul “Start Crawl”.

crawl-setup-kimono-paginacion

El proceso tarda unos minutos.

Al finalizar el rastreo, vuelve a la pestaña “Data Preview” donde verás que tienes varias páginas de datos, listos para descargar. De todos los formatos disponibles, yo prefiero CSV (archivo de valores separados por comas) porque es el que entienden todas las plataformas y todas las hojas de cáculo. Pero puedes elegir el que más te convenga.

descargar-a-csv-kimono

Si has leído hasta aquí y te has animado a probar esta estrategia de web scraping, lo que viene ahora es aún mejor. ¿Te lo vas a perder?

Cómo preparar los datos con Open Refine

Open Refine es una herramienta que sirve para conciliar grandes cantidades de datos. Es a-lu-ci-nan-te para eso y para limpiar datos, una tarea imprescindible cuando mezclas información de distintas fuentes. Aquí la usarás para fusionar los datos que ya tienes con los que necesitas: las estadísticas de recomendaciones en redes sociales que te proporciona Sharedcount.

Ahora vas a importar los datos del blog que te descargaste desde Kimono, en Open Refine. Consultarás los datos sociales en Sharedcount. Y consolidarás toda esa información (oro puro) en Open Refine, donde pondrás orden y harás algo de limpieza. Al final exportarás todo a un CSV que te llevarás a una hoja de cálculo para entrar de lleno en la parte más jugosa de este tutorial: el análisis.

#1 Importar el CSV de Kimono en Open Refine

Tras descargar, instalar y ejecutar Open Refine, verás que se abre automáticamente una pestaña con esta dirección en tu navegador: http://127.0.0.1:3333. No te preocupes, es normal: este programa no tiene una interfaz de usuario propia y utiliza tu navegador predeterminado. Sin embargo, aunque se ejecute en el navegador, es un programa de escritorio: eso significa que tus datos permanecen en local en todo momento.

interfaz-open-refine

Clica en “Create project” e importa el fichero CSV que has descargado de Kimono. Clica en “Next” para que Open Refine previsualice los datos y te pida que configures algunas opciones del nuevo proyecto.

Esto es lo que ves cuando importas el CSV:

antes-nuevo-proyecto-open-refine

Y este es el resultado una vez configurado (Haz clic sobre la siguiente imagen para ver exactamente cómodebes configurarlo):

despues-nuevo-proyecto-open-refine

 

Una vez creado el proyecto, puedes navegar a través de las páginas usando los controles que verás arriba a la derecha de la pantalla.

#2 Extraer datos sociales en Sharedcount

Ahora vas a exportar el resultado a un fichero para copiar las URL´s de los posts y así poder consultar los shares sociales en Sharedcount, donde antes debes crearte una cuenta gratuita.

exportar-desde-open-refine

 

Exporta al formato que prefieras: en este caso, yo lo exporté a Excel por rapidez. Abre el fichero exportado y copia la columna de URL´s.

Inicia sesión en Sharedcount, y en “URL Dashboard” clica en el botón “Bulk Upload”.

bulk-upload-sharedcount

Pega las URLs (una por línea) y dale al botón azul.

pegar-urls-sharedcount

Ya tienes tus shares listos, exporta a CSV. La verdad es que con tanta importación y exportación, el growth hacking podría levantar la economía del país 😀

shares-sharedcount

#3 Consolidar los datos en Open Refine

1. Vuelve a Open Refine y crea un nuevo proyecto de nombre “SharedcountGHLData“ desde el CSV de Sharedcount.

nuevo-proyecto-sharedcount-open-refine

2. Desde la barra de herramientas superior de Open Refine, clica en “Open” y abre el primer proyecto (el de los datos de Kimono). Quedarán abiertos ambos proyectos, cada uno en una pestaña de tu navegador.

3. Desde la columna con la URL de los posts (del proyecto inicial), haz: “Edit column>Add column based on this column”. Vas a añadir una columna que fusione las URL de los posts del proyecto 1 con los datos sociales del proyecto

4. En la caja de texto, escribe esta expresión:

 cell.cross("SharedcountGHLData", "URL")[0].cells["Tweets"].value

IMPORTANTE: Para que esta expression funcione, los nombre de las columnas de los dos proyectos deben llamarse “URL”. Si no son iguales, modifícalos poniéndote sobre la columna y seleccionando “Edit column/Rename column”.

fusion-open-refine

Los valores entre comillas dobles son los datos que quieres traer del proyecto 2 al 1: el título del proyecto 2, el nombre de la columna con la URL de los posts, y el nombre de la columna con los datos de cada red social.

Repite el punto anterior para cada red social, teniendo en cuenta que el dato de Facebook que más te interesa es “Fb Total”. Y no te compliques copiando y pegando la expresión desde el bloc de notas: Open Refine las recuerda todas! Accede al histórico de expresiones desde la pestaña “History”:

reutilizar-expresiones-open-refine

Ya tienes todo lo que necesitas para analizar. Pero antes, ¡hay que recoger la casa después de la fiesta!

#4 Limpiar datos con Open Refine

Elimina las columnas innecesarias

Desde la columna en cuestión, selecciona “Edit column>Remove this column” para eliminar:

  • La columna con la URL del blog seguida de la fecha de publicación.
  • La columna con la URL de los comentarios del post (no la del número de comentarios).
  • La columna con la URL del post

Separa los valores de distinta naturaleza que aparecen en una misma celda

“43 comentarios” no es un dato que puedas explotar en una hoja de cálculo: necesitas aislar la cifra del texto, situándola en una columna aparte.

Hazlo así:

  • Desde la columna “Comentarios” selecciona “Edit column>Split into several columns”.
  • En la ventana que aparece, borra el separador y deja en su lugar un espacio en blanco (pulsando la barra espaciadora del teclado) que es el carácter que separa la cifra del texto en la columna que quieres modificar. Deja todo lo demás como está y dale a OK.

configurar-columna-comentarios-open-refine

  • Renombra todas las columnas para no distraerte con esto cuando tengas que hacer el análisis (me obsesiona la productividad, ¿se nota?). Desde cada columna, ejecuta: “Edit column>Rename this column”.

Corrige el formato de fecha

Las fechas las carga el diablo. Tienen la mala costumbre de estar en formatos que las hojas de cálculo no entienden o malinterpretan. Si tus fechas muestran el mes en formato texto (enero, febrero…) en vez de en formato numérico, entonces tendrás que convertirlas al formato adecuado en Open Refine.

Yo tuve que hacerlo con Growthhackinglabs para poder usar la fecha en las fórmulas de mi hoja de cálculo, en fase de análisis.

  • Separa la columna “Fecha” en 3 columnas (día, mes y año) con “Edit column>Split into several columns”. Pon el separador igual a un espacio en blanco.

fecha-ok-open-refine

  • Limpia las comas en la columna de los días con “Edit cells>Transform…” y esta expresión:
replaceChars(value,",","") transformar-meses-open-refinefechas-ok2-open-refine

 

  •  Convierte los meses en números. Desde la columna de los meses, haz “Edit cells>Transform…>” y escribe la siguiente expresión:
 replace(value,"enero","01"). Haz clic en OK.

transformar-meses-open-refine

  • Repite el punto anterior en la misma columna para el resto de los meses, sustituyendo el nombre del mes por el número del mes.
  • Vuelve a unir los números en una fecha con formato correcto. Desde cualquiera de las 3 columnas, haz “Edit column>Add column based on this column” y pega esta expresión sustituyendo “Fecha 1” y demás por las columnas que en TUS datos sean las del día, mes y año (para Growthhackinglabs, Fecha 2 es el mes y Fecha 1 el día).
cells['Fecha 2'].value+"/"+cells['Fecha 1'].value+"/"+cells['Fecha 3'].value

montar-fecha-ok-open-refine

Y ya tienes tu columna de fechas en formato “amigable” para tu hoja de cálculo.

En este punto, deberías tener una tabla de 8 columnas: título del post, fecha, comentarios y los shares de las 5 redes sociales, lista para ser exportada a tu hoja de cálculo favorita.

Ya sabes cómo hacerlo, ¿no?

Analizando los datos con Google Spreadsheets

Mi hoja de cálculo favorita es Google Spreadsheets y es la que utilizaré para la fase final de este tutorial.

Con Google Spreadsheets abierto en tu navegador, importa el archivo CSV previamente descargado desde el menú Archivo>Importar>Subir>Insertar en la hoja actual>Importar. En la ventana que se abre, indica en qué punto del documento quieres que se inserten  los datos importados (en la misma hoja, en otra hoja…) y dale al ok.

Aunque Google Spreadsheets sea muy efectivo interpretando el formato de los datos importados, te recomiendo seleccionar todas las celdas con cifras y darles formato numérico en el menú Formato>Número>Número. En este caso, además, debes establecer los decimales en “ninguno” desde la barra de herramientas porque todas las cifras son enteras.

Ahora vas a insertar dos columnas nuevas:

  • Una con la fórmula “=WEEKDAY()” (en Excel es “=DIASEM()”) para extraer el día de la semana en que cada post fue publicado, en formato numérico.

weekday-spreadsheets

  • Otra con la suma de los comentarios más todas las métricas sociales, para hacerte una idea global de la popularidad social de cada post. Yo he llamado a estas nuevas columnas: “Día de la semana” y “Popularidad Social por Post”.

sum-spreadsheets

Resultados del análisis

Hallazgo #1: los 2 mejores días para lograr impacto social en Growth Hacking Labs han sido los lunes y los jueves

El modo en que llegué a esta conclusión puede parecer complicado, pero es sorprendentemente fácil una vez que te animas a probar. La clave está en insertar una tabla dinámica que efectúe los cálculos en una hoja aparte. A continuación, se añaden los campos calculados por ella a la tabla principal, para profundizar en el análisis.

¿Que por qué no uso fórmulas, como todo el mundo? Por una sencilla razón: productividad. Si puedes evitar mezclar datos en crudo con cálculos en la misma hoja, evítalo: así sabes dónde hay datos (no puede haber errores porque los has eliminado en Open Refine) y dónde hay cálculos (seguramente los errores estén ahí). Y las tablas dinámicas hacen precisamente eso: mantener el orden en un programa que tiende al caos cuando trabajas con muchas filas y más fórmulas.

  1. Selecciona todas las celdas con datos (incluidas las cabeceras de columna).
  2. Ve al menú Datos>Informe de tabla dinámica. Verás que se crea una nueva pestaña con este contenido:
  3. Añade el campo “Día de la semana” en Columnas y desmarca la casilla de verificación “Mostrar totales”.
  4. Añade el campo “Popularidad Social por post” en Valores y cambia el valor del menú desplegable “Resumir por SUM” (suma) por ”AVERAGE” (media). La tabla dinámica calcula la media de popularidad social de los posts agrupados según el día de la semana en que se han publicado. ¡Ojo! Google Spreadsheets considera primer día de la semana el domingo.

configurar-tabla-dinamica-spreadsheets

Siguiendo ese procedimiento, se ve claramente que los posts que mejor funcionan son los publicados lunes, jueves y sábados. Pero el dato de los sábados me chirría un poco: no suele ser un gran día para los blogs en general. Así que vuelvo a los datos para ver qué posts se publicaron un día tradicionalmente flojo, y descubro que fue el primero del blog. Como sé que Val creó expectación antes de inaugurar su blog, estimo que se trata de un “outlier” (un valor fuera de rango que altera las estadísticas) y lo excluyo del ranking.

Pero no me quedo tranquila con esta conclusión: sé que las medias son métricas engañosas. Quiero profundizar en los factores de éxito de cada uno de los posts “ganadores” de impacto social en Growthhackinglabs. De modo que voy a averiguar cuánto mejor o peor funciona un artículo, comparado con la media del impacto social de los posts publicados el mismo día.

Para ello, voy a completar la tabla de datos con los calculados por la tabla dinámica, calcularé el % de desempeño con respecto a la media, y filtraré los posts de los lunes y los jueves para ver si descubro algo interesante.

Estos son los pasos a seguir:

1. Copia los valores de la tabla dinámica, crea una nueva hoja en el mismo documento, llamada “Cálculos” y haz Editar>Pegado especial>Pegar solo los valores.

tabla-dinamica-spreadsheets

2. Ahora copia los valores que acabas de pegar y vuélvelos a pegar en la hoja “Cálculos”, esta vez con Editar>Pegado especial>Pegar con transposición de los datos. Tiene que quedarte así:

transponer-datos-spreadsheets

 

3. Sitúate en la hoja de tu tabla de datos (la que has importado de Open Refine). Inserta una nueva columna a la derecha de la que utilizaste para sumar las interacciones sociales. Llámala algo así como “Media social por día de la semana”. Ahora sitúate en la primera celda y escribe esta fórmula para rellenarla con los datos del promedio calculado en el punto 2:

=VLOOKUP(C7; Calculos!$A$2:$B$6; 2; false)
vlookup-spreadsheets

Esta fórmula busca el valor del día de la semana de la columna C, en el rango de datos que creaste en el paso 2. Cuando halla el valor del día de la semana en la primera fila del rango, lee el valor del promedio en la segunda columna del rango y lo escribe como resultado de la fórmula. Ahora solo tienes que copiar y pegar la fórmula en el resto de filas y ya tienes contexto para tus datos. Un benchmark “selfie”.

4. Inserta una nueva columna a la derecha de la creada en el punto 3. Llámala algo así como “Rendimiento social con respecto a la media por día de la semana”. Sitúate en la primera celda y escribe esta fórmula para rellenarla con la diferencia (en %) entre el impacto social de cada post y el impacto medio de los posts publicados el mismo día:

=(J2-K2)/K2

5. Activa los filtros de la tabla clicando en el menú “Datos>Filtro”. Verás que la tabla cambia de aspecto (borde verde), apareciendo unos menús desplegables con los que puedes filtrar y ordenar datos con facilidad.

6. Filtra por la columna “Día de la semana” los mejores días, dejando tildados sólo los dos o tres mejores según la tabla dinámica.

7. Ordena los datos de mayor a menor por la columna “Rendimiento social con respecto a la media por día de la semana”.

Hallazgo #2: los titulares más populares de Growthhackinglabs incluyen comparaciones y cifras

Los 3 posts que se desempeñan por encima de la media en cuanto a impacto social según su día de publicación, son:

Si comparo los títulos de los posts publicados los lunes por Val (los dos de arriba, más “12 Propósitos, el curso de marketing digital de 2014”), observo que dos de ellos incluyen una cifra y el otro una comparación, dos técnicas de copywriting muy efectivas y recomendables para picar la curiosidad y disparar el engagement en redes sociales.

“Carolina, ¿y todo este rollo para soltar una obviedad sobre copywriting?”

No, todo este rollo para encontrar una buena hipótesis que probar con un experimento de growth hacking. Paso de pontificar verdades absolutas que nadie ha demostrado con datos que yo pueda comprobar. Por ejemplo, Val podría iniciar un experimento analizando si hay correlación entre la estructura de sus titulares “ganadores” y la fidelidad de sus lectores, su métrica única.

Como te prometí al inicio de este tutorial, voy a compartir contigo algunos aprendizajes después de analizar dos blogs tremendamente populares en el sector del marketing online: Vilma Nuñez y el de Víctor Martín.

Hallazgo #3: los mejores días para Víctor Martín han sido los martes y miércoles

En 2014 el 41% de los posts de Víctor superan la media de impacto social del día de la semana en que se publicaron. Centrándome en los posts que superan en +50% el impacto medio de los martes y miércoles, los posts que lo petan son:

Hallazgo #4: los mejores titulares de Víctor destacan por incluir la fórmula de copywriting “How-to”

Si eres escéptico sobre los consejos sobre optimización de títulos en un blog, aquí tienes datos que hablan por sí solos. Como ves, se repite el hecho de que un titular con una lista numerada supere el rendimiento social promedio, aunque el titular ganador para Víctor es claramente el que utiliza el recurso “How-to”.

Hallazgo #5: los mejores días para Vilma Núñez han sido los lunes y martes

El 37% de los posts de Vilma en 2014 tienen mayor impacto social que la media del día en que fueron publicados. En su caso, dado el volumen de contenidos de su blog, los resultados son aún más esclarecedores. Centrándome en los posts que duplican o más el impacto medio de los lunes y martes, los posts *estrella* son:

Hallazgo #6: los mejores titulares de Vilma confirman que la fórmula de copywriting ganadora es invocar la palabra mágica “Cómo…”

Los titulares ganadores de Vilma también incluyen la fórmula del tutorial o “how-to” y consiguen multiplicar el engagement x4. Eso sí, tienes que tener una audiencia amplia y entregada, como la suya 😉 Además, Vilma triunfa también con el recurso a las listas, otra idea clave para tu copywriting.

Espero que este hack te haya ayudado a encontrar la hipótesis para diseñar tu propio experimento de Growth Hacking. Como premio a tu curiosidad y constancia, aquí tienes la hoja de cálculo que he utilizado para analizar Growthhackinglabs.

Y si quieres saber más sobre web scraping, limpieza o fusión de datos, te recomiendo que visites mi blog sobre visualización de datos, donde cada semana escribo sobre técnicas que te ayudarán a encontrar mejor y más rápido los hallazgos escondidos en una hoja de cálculo.

Val otra vez:

Si has llegado hasta aquí, te interesa el trabajo de Carolina. Te aseguro que pocos profesionales son tan didácticos y se lo curran tanto como ella. Te recomiendo su Guía para Crear Hojas de Cálculo Efectivas. ¡Gracias Carol!

Ah!, se me olvidaba, dada la complejidad del tutorial, Carolina se ha prestado amablemente para solucionar todas las dudas en los comentarios, así que no te cortes 😉

Si te ha gustado este artículo, suscríbete gratis

(y te llegarán todas las semanas tácticas y casos prácticos de growth hacking que harán crecer tu startup)

Comentarios

42 comentarios

Alvaro Faiña

¡Carol! ¡Superartículo! Muy útil, práctico y con unas conclusiones muyy interesantes :), me lo apunto en mi lista de tareas de esta semana.

Un abrazo.

Alvaro.

Carolina Cristanchi

¡Gracias Alvaro! Espero que te ayude con tus crazy metrics 😉 Ya nos cuentas si te surge alguna duda al aplicarlo. Un abrazo.

natan valencia

Hola Val, Hola Carolina…

Muy bueno el tutorial, una manera excelente de apagarse con herramientas gratuitas.

Solo me gustaría indicar un detalle, que no se si se te ha pasado a ti escribirlo.o a mi leerlo:

Esas estadísticas de shares e interacciones pueden estar alteradas por un post que se haya posicionado en un buscador (sea google Yahoo o Bing). Cuando un post recibe continuamente visitas, las visitas comentan, comparten y marcan con acciones sociales el post que leen en mayor o menor medida.
También hay artículos destacados que aparecen en el sidebar de los blogs y se benefician del tráfico que llega de otros post.

Para depurar todavía más tu excelente post yo intentaria limitar los datos a la primera semana tras su publicación, y si me apuras filtraria los resultados por canales, así separas perfectamente el resultado de la causa y llegaríamos al verdadero centro de la cuestión.

Un saludo, sigue así!

Carolina Cristanchi

Hola natan, agradezco mucho tu comentario porque abre las puertas a nuevas posibilidades de análisis, que era uno de mis objetivos con este post. No soy experta en SEO, pero sí que he analizando el tráfico segmentado por canales en varias ocasiones. Es cierto que un análisis más profundo exigiría diferenciar el impacto conseguido por esfuerzo propio, del conseguido por la acción de los lectores. Gracias por compartir este tip. ¡Saludos!

Cinta

Un post perfecto Carolina! Me ha encantado, me lo apunto cómo tarea, genial!

Un saludo!

Carolina Cristanchi

Muchas gracias, Cinta. Si te animas a probar y te surgen dudas, pregunta lo que sea y te contesto aquí. ¡Un saludo!

Carlos Navarro

Enhorabuena por el post, muy trabajado. Para aportar valor, os doy algunas recomendaciones y opiniones personales.
Creo que para obtener una visión global y muy superficial de tus publicaciones está genial. Pero se podría profundizar un poco más. Al igual que comenta Natan, no se ha contado con la adquisición proveniente de un post bien posicionado en Google. Siguiendo con la frase “el Growth Hacking no va de regalar tráfico a las redes sociales, sino de dirigirlo hacia tu plataforma”, tal vez hubiera cotejado la métrica de adquisición social, en vez de el número de shares. Por otro lado el análisis está hecho con métricas absolutas, no se cuenta con el crecimiento de lectores de la web que implica: a más lectores, más comentarios y más shares; tal vez, hubiera sido mucho más exacto si la popularidad social de los post se contara como relativa, haciendo el análisis por cohortes (por ejemplo usuarios en cada semana).

Aparte de lo que os comento, existen muchísimas variables que muestrear y formas varias de hacerlo, pero la publicación es un previo muy bueno y da grandes ideas para seguir con el análisis. Enhorabuena.

Un abrazo.

Carolina Cristanchi

Muy agradecida por tus consejos, Carlos. Y encantada con el brainstorming que esto pueda generar para aportar más valor con datos. En efecto, es un ejemplo de análisis preliminar que se podría aplicar en las fases iniciales de un blog o una startup, cuando el tráfico via buscadores es ridículo o inexistente. En ese escenario, la prioridad es validar la acogida de unos contenidos (caso de un blog de nicho) o testar la aceptación inicial de un producto. Cuando el tráfico de buscadores empieza a despegar y tenemos posts (o productos) bien posicionados, está claro que las métricas cambian, así como la profundidad del análisis que propones (¡el análisis de cohortes es un must!). ¡Saludos!

Marcelo

Hola! Excelente post, buenas combinaciones de servicios web para lograrlo. Comparto lo que dijo Natan Valencia, las métricas absolutas muestran números interesantes, pero habría que ver como combinar el crecimiento de un post en el tiempo, porque a medida que se vuelve popular y se posiciona en Google, también puede ir en aumento el número de shares, y en ese sentido se vuelve irrelevante la fecha de publicación. Yo te lo digo porque más allá de colectar leads, la mayoría de mis posts son datos útiles que tienen como intención posicionarse y quedar rankeando en Google por AÑOS. Y en esos casos si realmente interesa ver el día de publicación con mayor rating, simplemente tengo el gráfico de Google Analytics. Y ahí mismo directamente puedes ver en bulk cuales son los titulares más hiteados. PERO me parece interesante el tutorial desde el punto de poder analizar a la competencia, esa posibilidad de consolidar datos para medirte con otros y ver lo que realmente está siendo popular me parece genial.

Si bien son muchos pasos, te pregunto si el escaneo con Kimono puede dejarse preconfigurado como para ir reescaneando una web cuando uno lo desee, y si es posible dejar configurados los parámetros para escanear varios sitios. Tienes idea de eso?

Saludos!

Carolina Cristanchi

Respondiendo a tu pregunta, Marcelo, es la utilidad principal de Kimono: automatizar el rastreo con la periodicidad deseada. Incluso permite conectar los datos con apps, para alimentarlas con datos frescos. Te animo a explorarla, es muy interesante. Muchas gracias por compartir tu visión sobre lo bueno y lo mejorable del post. ¡Saludos!

Susana Morin

¡Un post impecable Carolina! De esos que me voy a guardar para hacer mi propio análisis ya que es un tema que me interesa mucho 😉
No tengo duda de que tienes un presente y futuro BRILLANTE.
¡Enhorabuena!

Carolina Cristanchi

Susana, que se me sube el colorete… ¡Muchas gracias! Si te surge alguna duda, nos lo cuentas por aquí? Un abrazo.

Jonathan

Superlativo! Me ha encantado el post. Me lo guardaré como un tesoro para aplicarlo más adelante en mi blog.

Por cierto Carolina, ya tienes un nuevo seguidor para tu blog.

Saludos!

Carolina Cristanchi

Estupendo, Jonathan! Un gustazo darte la bienvenida también en mi blog. Si te surgen dudas con el tutorial, postéalas aquí y te contesto. Gracias por tu comentario! Saludos

Javi Pastor

Menudo pedazo de post, madre mía. Ya está guardado y preparado para usarlo la semana que viene con un blog (que no es el mío porque poco voy a sacar en claro con 3 meses) y hacer las “prácticas” necesarias para sacarle el 100% a este mega artículo.

A mí me encantan los datos, estadísticas y conclusiones con cifras en las manos pero nunca me he puesto con este tipo de cosas, así que ya me toca y entre hacer lo que has puesto aquí y leer tu blog me pondré un poco las pilas 🙂

Un saludo y enhorabuena por el post (y a Val por traerte :D)

Carolina Cristanchi

Muchas gracias por la acogida del post, Javi. Estoy deseando que alguno os animéis a hacerlo y me contéis los resultados. Desde luego, es un comienzo, pero se pueden hacer muchos más análisis: más profundos y con conclusiones mucho más accionables. Muchas gracias por tu comentario 🙂 Saludos!

Javi Pastor

En cuanto haga el análisis se lo voy a pasar al blogger en cuestión y además a ver si puedo crear un post con ello porque me ha parecido muy muy interesante.

Además, creo que este tipo de análisis es perfecto para gente que quiera trabajar con otros bloggers o empresas que tienen un blog, si le entras con un informe de este tipo la imagen tiene que ser más que buena 😉

Un saludo!

Val Muñoz de Bustillo

Estoy deseando ver ese post, Javi 🙂

Carolina Cristanchi

Algo así como el hack de la “auditoría no solicitada” que comenta Val en su ebook, verdad? Me encanta cómo van surgiendo nuevas posibilidades.
Ya nos contarás, Javi.
Un abrazo 🙂

Maïder

Genial post Carolina, es increíble ver todo lo que se puede hacer. Hay cosas que se me escapan, pero me parece una entrada útil y muy interesante para todos los que tenemos un blog y trabajamos nuestra presencia en redes sociales.

Hace unas semanas con un cliente estuvimos midiendo el impacto de los títulos de los contenidos de su blog y tal y como comentas en el estudio que has hecho los títulos “cómo” le funcionan mejor. Para mí estos títulos que solucionan la vida del lector y le prometen una vida mejor son títulos cómodos e imposibles de escribir mal (aunque algunos lo hacen).

En estos títulos “cómo” lo que observamos es una diferencia abismal entre los que están escritos de una forma positiva y varios que tenía escritos con un lenguaje negativo al estilo “cómo no meter la pata cuando visitas a un cliente por primera vez”

Enhorabuena por tu trabajo y gracias Val por traernos a Carolina.

Un abrazo a los dos.

Val Muñoz de Bustillo

Hola Maïder, un placer verte por aquí, aunque sé que me sigues 😉

Sin duda los post “Cómo” funcionan genial, al igual que las listas, la pregunta es si acaba saturándose internet de ese tipo de posts y tendremos que innovar para conseguir la atención del lector…

Un abrazo!

Carolina Cristanchi

No me había fijado en el detalle que comentas, Maï: ahí tu ojo “clínico” d copywriter manda 🙂

Me parece genial que poco a poco los clientes vean “normal” analizar los resultados de sus acciones con datos en la mano. Lo que comentas de medir el impacto de los títulos con tu cliente es genial. Otros prefieren confiar en la intuición, tal vez por miedo a enfrentarse a la realidad de los números.

En cuanto a lo que comenta Val, estoy de acuerdo en que la lucha en esta economía de la atención no ha hecho más que empezar. ¡Tendremos que reinventarnos unas cuantas veces más!

Encantadísima de verte por aquí, Maï

Un abrazo

Dan Cave

¿Por qué no utilizar import.io Magic? Sin Download, y sólo con un clic ? Es muy fácil .

https://magic.import.io/?site=http:%2F%2Fgrowthhackinglabs.com%2F

Carolina Cristanchi

Gracias Dan, lo intenté pero tuve problemas para que me detectase correctamente la paginación de los otros blogs analizados. ¿Tal vez algún lector se anima a probar y nos cuenta sus resultados? Saludos!

Dan Cave

La tecnología es aún muy nuevo / avanzado . Una técnica consiste en iniciar la herramienta en la segunda página del blog en lugar de la primera (EG, http://growthhackinglabs.com/page/2/ ) . Eso ayuda a la paginación a detectar mejor.

Las mejoras están en marcha , aunque.

* Lo siento por el mal español 😛 mi amigo español de ciencia de datos está de vacaciones en madrid .

Carolina Cristanchi

Muchas gracias por el consejo, Dan, y por escribir en español 😉

Ana

Enhorabuena Val y Carolina por este completísimo post. Personalmente no conocía la mitad de herramientas de las que habláis en el artículo y las iré probando una a una (con el post delante, porque esto no es fácil de aprenderlo de una sola lectura :-))

Tampoco sabía mucho de webscrappin ni te conocía Carolina, pero te apunto, ya que he visitado tu blog y me parece de lo más interesante.

Gracias por esta master class a los dos
Saludos

Carolina Cristanchi

El web scraping tiene muchas posibilidades, Ana: ésta es sólo una de ellas. Te animo a intentarlo.

En cuanto a herramientas yo he apostado por Kimono, pero tienes -como ha apuntado Dan Cave- import.io Magic y también otras que van surgiendo, como Trama Data Mining. Según las vaya probando, os lo iré contando.

Muchas gracias por pasarte por aquí, Ana 🙂

Saludos

Dan Cave

Siéntase libre de correo electrónico support@import.io ayuda, consejo y divertidas web raspado cosas. Tenemos una persona que habla español que puede hablar con usted.

Carolina Cristanchi

Eso es estupendo, gracias otra vez!

Mauricio

¡Woow! No me sorprende encontrar información de este nivel en tu blog Val. Este es un post que definitivamente tendré que leer mas de 2 o 3 veces y seguir cada uno de los pasos que indica Carolina. Muy bueno. Muchas gracias a ambos!

Carolina Cristanchi

Gracias a ti, Mauricio!
os contarás los resultados, no? 🙂
Saludos!

Daniel Blasco

Menudo artículo te has currado Carolina! Lo he seguido y probado y lo explicas muy bien. Sólo quería comentarte de que se puede usar la API de SharedCount directamente en el proyecto de Google Refine y ahorrarnos un proyecto y exportaciones. Esta opción la probé con el blog de Victor Martín.
Un abrazo!

Carolina Cristanchi

Mil gracias, Daniel!
Lo cierto es que lo intenté con la llamada al API de Sharedcount, pero me daba errores. Como en enero discontinuaron el acceso gratuito sin API key (que sí me funcionaba), igual cuando yo lo probé estaba todavía en pañales.
Será cuestión de volverlo a intentar ahora 🙂
Eres el primero que se anima a contar cómo le ha ido por aquí: genial!
Saludos

Val Muñoz de Bustillo

Gracias Daniel por tu comentario. Cierto, si te das de alta una cuenta en SharedCount puedes usar su API. Gracias por tu aportación.

Saludos!

Alfonso Prim (Innokabi)

Impresionante artículo Carolina, me ha encantado aunque para mi ya no son horas de ponerme con ello, para analizar mi blog. Eso sí, mañana sin falta me lio la manta a la cabeza y lo intento. Digo intento porque tiene miga el tema… 😉
Muchas gracias por compartir tu conocimiento.
Un saludo

Carolina Cristanchi

Mi recompensa es que sea valioso e implementable lo que propongo, Alfonso. Muchas gracias por intentarlo: si necesitas algo, no dudes en preguntar por aquí 🙂
Saludos

SEO2 | Pearltrees

[…] Cómo multiplicar x4 el impacto social de un blog: el Pop-Hack – Growth Hacking Labs. Esta semana traigo dinamita pura. […]

Carlos

Genial! He trabajado con Import.io pero no conocía Kimono.

No se me había ocurrido utilizarlo para estos fines, creo que es muy interesante… y ahora que he leído la segunda parte de la guía mucho más todavía 😉

Un saludo!

Carolina Cristanchi

Hola Carlos, eso es justo lo que pretendía: abrir una ventana a las posiblidades que ofrece el web scraping. Si tienes algo en mente, cuéntanoslo anda… Saludos y gracias por pasarte a comentar!

Cómo fulminar tus tareas repetitivas con un dashboard SEO

[…] la conocí a través de una de las mejores joyas que he tenido ocasión de leer en un blog: (este) y desde ese día sabía que necesitaba un post de ella para todos mis […]

Sharetally: Analiza el impacto social de un blog | Daniel Blasco

[…] descubrí gracias al magnífico artículo que escribió Carolina Cristanchi en el blog Growth Hacking Labs de Val, al que le tengo que agradecer el gusanillo que me ha logrado despertar por esta apasionante […]


Deja un comentario

Time limit is exhausted. Please reload CAPTCHA.