Publication:
Límite(s) de los estudios Big Data

Loading...
Thumbnail Image
Official URL
Full text at PDC
Publication Date
2015
Advisors (or tutors)
Editors
Journal Title
Journal ISSN
Volume Title
Publisher
Fragua
Citations
Google Scholar
Research Projects
Organizational Units
Journal Issue
Abstract
Desde hace algo más de una década los estudios Big Data se han consolidado en la literatura científica de la Sociología y la Comunicación. Los resultados de algunos de estos experimentos son sorprendentes. Así: Google Flu Trends (GFT) parece capaz de informar al momento sobre el impacto de la gripe estacionaria en cualquier lugar del planeta. Estos estudios basados en la cuantificación de datos obtenidos de Internet, especialmente de las redes sociales y de los buscadores, configuran un nuevo modelo de investigación. Los autores más optimistas hablan de una ruptura definitiva entre estudios cualitativos y cuantitativos. Los datos máximos ofrecidos por Facebook o Twitter parecen haber superado la distinción entre cualitativo y cuantitativo. El propio flujo de información evidencia el comportamiento, las tendencias e, incluso, predice los resultados de elecciones, taquillas, audiencias o compra de consumidores. Sin embargo, desde 2013 se han comenzado a evidenciar errores en dichos estudios. Así recientes investigaciones demuestran que análisis basados en el algoritmo de Twitter contienen fallos importantes, que la cuantificación de las tendencias en Facebook conlleva sesgos elevados y, sobre todo, que hasta el célebre GFT presenta errores de medición enormes. Estas quiebras técnicas no son, sin embargo, las lagunas más graves de los estudios Big Data. Tal vez, el error de los estudios de datos máximos se encuentra en su propio planteamiento, como indica el filósofo coreano Byung-Chul Han, el fallo es suponer que la masa de información, por muy amplia que sea, puede suplantar a la necesidad de modelos y fundamentos teóricos.
Description
Unesco subjects
Keywords
Citation