Blog / 14 enero, 2016

El big data y la solución de problemas complejos

Las nuevas formas de estar en el mundo (educar, ser ciudadano, viajar, comunicarnos, ser madres, comer, hacer deporte, aprender, consumir…) y de interaccionar con él, con uno mismo y con los demás a través de las nuevas tecnologías permiten la recolección continua de incontables datos de todo tipo. El almacenamiento y tratamiento de estos datos gracias a complicados algoritmos, conocido como big data, puede facilitar el análisis de problemas o realidades complejas: la predicción de tendencias en los mercados, de comportamientos individuales o colectivos, el éxito de nuevos productos, la reacción de un grupo de ciudadanos ante nuevas decisiones que les puedan afectar, la (re)aparición de viejas y nuevas enfermedades,etc.

El acceso a tal cantidad de datos y su adecuado análisis puede ayudar en cierta manera a jugar a ser dioses, pues nos permite no sólo adelantarnos y ver el futuro, sino además construirlo, diseñar nuevos escenarios, nuevos problemas, nuevas soluciones, nuevos productos con los que la mayoría de las personas reaccionarán o interactuarán de la manera esperada,…

Más allá de estas cuestiones, los datos y las fórmulas tienen la capacidad de hacer invisibles a valores e ideologías. Pareciera que los datos pertenecen al ámbito de lo objetivo, que no están contaminados por la subjetividad, las creencias o los intereses personales o corporativos. Sin embargo no siempre es así, en muchas ocasiones esto no deja de ser más que un ingenuo deseo, en otras una interesada impostura. Los datos no son la realidad, los datos y sus algoritmos son una herramienta, una tecnología para medir, interpretar o intervenir en esa realidad.

En este escenario es importante entender en qué momentos el uso de grandes cantidades de datos para la solución de problemas complejos funciona de manera adecuada, ante qué preguntas y bajo qué condiciones es más probable que esta tecnología aporte conclusiones que sean verdaderamente ventajosas.  En esta charla TED, Sebastian Wernicke resalta el papel imprescindible que han de jugar los hombres y mujeres expertos en cada materia a la hora de analizar los resultados de estos complicados algoritmos y de asumir el riesgo de tomar decisiones a veces a favor a veces en contra de lo que el todopoderoso big data pudiera indicar.

So whenever you’re solving a complex problem, you’re doing essentially two things. The first one is, you take that problem apart into its bits and pieces so that you can deeply analyze those bits and pieces, and then of course you do the second part. You put all of these bits and pieces back together again to come to your conclusion. And sometimes you have to do it over again, but it’s always those two things: taking apart and putting back together again.

And now the crucial thing is that data and data analysis is only good for the first part. Data and data analysis, no matter how powerful, can only help you taking a problem apart and understanding its pieces. It’s not suited to put those pieces back together again and then to come to a conclusion. There’s another tool that can do that, and we all have it, and that tool is the brain. If there’s one thing a brain is good at, it’s taking bits and pieces back together again, even when you have incomplete information, and coming to a good conclusion, especially if it’s the brain of an expert.

 


Etiquetas:  análisis de datos big data métodos Sebastián Wernicke

Manuel Calvillo
Manuel Calvillo
Psicólogo especialista en psicología clínica. Formador y consultor relacional.




También te recomendamos




0 Comentarios

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

7 − 6 =



Simple Share Buttons