Desde la aparición de las redes sociales, el flujo de información generado por la interacción entre los usuarios y estos sistemas se ha constituido como una fuente rica en datos que muchos actores; desde especialistas en publicidad y marketing hasta científicos sociales, han querido utilizar en su provecho.
Herramientas analíticas como el popular Google Analytics u otros programas más avanzados de la talla de Lucky Orange o Webtrends, forman parte del software que se suele utilizar para extraer esta data y procesarla para producir información relevante y útil. Ahora bien, esto no es tan sencillo como parece.
Con bases de datos de varios terabytes de peso y complejos sistemas de segmentación de la información, quien quiera obtener provecho del análisis de la información vertida en redes sociales (aún en niveles micro) debe no solo tener herramientas de trabajo funcionales sino también cierto método.
A continuación, hemos extraído algunas premisas del análisis de datos que se obtienen en redes sociales para que esta operación sea productiva y no se corra el riesgo de obtener información sesgada o incorrecta:
1. Hay que saber lo que se busca:
Aunque sea un poco redundante, hay que tener muy en claro qué tipo de información se busca para poder enfocar la estrategia del análisis en la recopilación de dicha información. Por ejemplo, si lo que se busca es medir la cantidad de usuarios que responden a una publicación hecha en Facebook muy temprano en la mañana, bastará con utilizar la herramienta incorporada de Facebook para hacer esa medición. Sin embargo, si se desea algo más específico como saber a qué lugares pertenecen los usuarios que visualizan la información, cuántos dan clic o si luego buscan más información dentro del mismo fanpage, será necesario otro enfoque y otras herramientas.
Esto no solo sirve para discriminar bien lo que se desea saber, sino también para eliminar la información no relevante que pudiera afectar la calidad del muestreo. En el mismo ejemplo, la cantidad de visitas totales a una publicación se torna irrelevante si lo que queremos saber es el tiempo de permanencia dentro de la misma de cada usuario individual.
2. Hay que tener en cuenta el sesgo de la red social:
Todas las redes sociales tienen sesgo, es algo que hay que tener muy en cuenta. Así, los usuarios de redes como Instagram o Pinterest, responden a cierto segmento poblacional, con gustos más o menos específicos y ciertas inclinaciones. Así pues, si se desea información más global, Facebook (y en algunos casos Twitter) ofrecerá estadísticas de interacción más precisas.
Si, por el contrario, una tienda de zapatos (una marca que suele tener mayor presencia en redes más visuales como Instagram) desea sondear si su público femenino responde bien a un nuevo diseño, el lugar más efectivo será Instagram y no Facebook, pues en la primera se encontrará su público objetivo.
3. Hay que escoger bien el tipo y calidad de la medición:
¿Se quiere una medición cuantitativa o cualitativa? ¿En qué se desea enfocar la atención: en la visitas, en los lugares de procedencia de los usuarios o en sus interacciones dentro de una web? Esto es pura estadística, pero tiene que definirse para obtener buenos datos del análisis que se vaya a realizar.
En algunos casos, las compañías deciden contratar costosos estudios de mercado en vez de aprovechar las herramientas en Internet que permiten hacer las mismas mediciones y con un nivel de certeza bastante aceptable.
4. Hay que realizar mediciones con diferentes herramientas:
Esto se hace necesario para poder disponer de varias fuentes, lo que redunda en tener información más precisa. Este método es empleado por casi todas las ciencias para poder demostrar ciertas hipótesis y es también el mejor para ser empleado en el asunto del análisis de los datos.
Más aún, cuando estamos hablando de Big Data, no hay otra manera de poder llegar a un resultado concluyente y satisfactorio que empleando diferentes herramientas analíticas. Saltarse este paso muchas veces puede resultar catastrófico cuando se ven los resultados del empleo de información que no ha sido corroborada.
5. Hay que contrastar los datos con la realidad y replantear si es necesario:
No hay que adolecer de credulidad. Incluso luego de haber seguido todos estos sencillos pasos y haber procesado la información hasta haberla convertido en algo útil y empleable, debe hacerse un seguimiento continuo a la respuesta de los usuarios. Y es que cuando el ‘factor humano’ está presente, todos los números pueden fallar.
Conclusión
Hay que indicar que desde algún tiempo, muchos científicos han criticado las decisiones que se toman en base a los datos obtenidos en las redes sociales; especialmente porque aún hoy el proceso de análisis falla a la hora de discriminar de forma correcta al grupo que investiga, al ya citado factor humano y también por el alto nivel de fraude en Internet (cuentas falsas, bots, etc.)
¿Cuál es el veredicto? El análisis de la data que tiene como fuente a las redes sociales es útil y funciona cuando se la emplea bien. Así que por lo pronto seguiremos viendo mucho de esto en los próximos años.