Agencia de inbound marketing.
Medellín, Colombia.


+(4) 444 16 68
01 8000 52 71 19

¿Qué es el Big Data y cómo está cambiando al mundo?

No cabe duda de que el Big Data es un concepto muy interesante de conocer, sobre todo cuando escuchamos o leemos, que es la nueva rueda que está cambiando al mundo.

Alguna vez te has preguntado: ¿a dónde va tu información?, ¿qué utilidad tiene? y, ¿quiénes podrían estar interesados en ella? 

En relación a estas preguntas,  el Big Data tiene mucho que decirnos. A continuación, te invitamos a conocer en qué consiste este término, cuál es su historia y en qué áreas se está implementando.

¿Qué es el Big Data?

 

Cuando hablamos de Big Data, nos referimos al proceso de recolectar, analizar e interpretar grandes volúmenes de datos que tomaría demasiado tiempo y sería muy costoso cargarlos a un base de datos para su análisis. 

También, se considera al Big Data como un gran número de datos que van desde 30-50 terabytes a Petabytes. 

De esta manera, el concepto de Big Data aplica para el conjunto de datos que no pueden ser procesado o analizados utilizando herramientas tradicionales, por lo que se necesita de un proceso más complejo para “limpiar” dichos datos y extraer elementos que puedan interpretarse. 

La empresa Gartner, define al Big Data como los datos que contienen una mayor variedad, que se presentan en volúmenes crecientes y a una velocidad superior. 

IBM en su informe Performance and Capacity Implications for Big Data publicado en el 2014, coincide con esta afirmación al afirmar que las soluciones Big Data se distinguen de las soluciones TIC tradicionales considerando cuatro dimensiones:

  • Volumen: las soluciones Big Data deben gestionar y procesar grandes cantidades de datos. 
  • Velocidad: deben procesar datos que se registran a gran velocidad. 
  • Variedad: deben encargarse de procesar diferentes tipos de datos y estructurados de múltiples maneras. 
  • Veracidad: deben encontrar incongruencias en la información que se recolecta. 

Los datos complejos que el Big Data tiene que procesar, se extraen diariamente no solo a través de los usuarios que utilizan plataformas digitales y dispositivos inteligentes como celulares, tablets, TV’s, Smart Watchs, sino de objetos inanimados.

Con la llegada de la Internet de las cosas (IoT), hay un mayor número de objetos y dispositivos conectados a Internet que generan datos relacionados a patrones de uso. Esto hace que el Big Data, hoy en día sea más importante que nunca para monetizar los datos que se recolectan. 

Historia del Big Data

 

A pesar de que el  Big Data como concepto es relativamente nuevo, su orígen se  remonta a las décadas de 1960 y 1970, cuando el mundo de los datos apenas comenzaba.

Como consecuencia del auge demográfico del Baby Boom en Estados Unidos, se crearon sistemas que pudiesen almacenar y analizar los datos de ese gran número de personas que estaban naciendo.

No obstante, no fue hasta 1999 donde se le da uso por primera vez al término Big Data se empleó en un trabajo académico llamado “Visually Exploring Gigabyte Datasets in Realtime”, escrito por Steve Bryson, David Kenwright y otros colaboradores.

En el 2001, Doug Laney establece las “3 V’s que forman parte del Big Data”, las cuales ya te explicamos en las líneas anteriores.

En el 2005, investigadores, científicos y empresas comenzaron a darse cuenta de la cantidad de datos que generaban los usuarios a través de redes sociales de consumo masivo Facebook, YouTube y otras plataformas online.

Por lo que ese mismo año, se creó Hadoop, un sistema de código abierto que se utiliza para almacenar, procesar y analizar grandes volúmenes de datos, ahorrándole tiempo a los desarrolladores que programaban algoritmos para analizar información.

Hadoop aceleró en gran medida el uso del Big Data, ya que, en esta plataforma se pueden realizar múltiples análisis de datos, entre ellos una regresiones lineales.

A nivel global, en el 2008 se procesaba 9,57 zetabytes (9.570.000.000.000 gigabytes) de información. Debido al crecimiento veloz de los datos, se estimó que 14,7 exabytes de información nueva se produciría este año 2020.

En el 2009, el estudio “The Next Frontier for Innovation, Competition and Productivity” realizado por McKinsey Global Institute señaló que una empresa promedio estadounidense con más de 1.000 empleados, almacena más de 200 terabytes de datos.

En este sentido, el desarrollo de softwares de código abierto, como Hadoop y Spark, fueron fundamental para el crecimiento del Big Data, pues estos hacían que dicho proceso fuese accesible y económico para las empresas.

En los años siguientes, el volumen de big data se ha disparado. En el 2010, Eric Schmidt, presidente ejecutivo de Google, afirmó en una conferencia que la cantidad de datos que ahora se están creando cada dos días, es mayor que la creada desde el comienzo de la civilización humana hasta el año 2003 ¿Impresionante, no?

¿Por qué el Big Data es tan importante?

 

Los datos por sí solos no son valiosos, a menos que, se organicen y transformen en información útil y orientado hacia alcanzar un objetivo. En este sentido, el Big Data entra en juego como el proceso que hace que esos datos tengan sentido y puedan ser más útiles a nivel empresarial.

Las grandes empresas en el mundo no solamente utilizan el dato como una mercancía (veamos el ejemplo de los anuncios publicitarios de Facebook) sino que además la utilizan para crear mejores productos y servicios que puedan tener más valor y reconocimiento en el mercado.

De hecho, el término de “data commodities” es un concepto utilizado recientemente para resumir este fenómeno económico donde la data es una mercancía muy valiosa en el mundo empresarial.

Si te preguntas ¿cómo hace Facebook posible su modelo de negocio, si su aplicación es gratuita? Bueno, la data tiene mucho que ver. Según el reportaje ¿Cuánto dinero gana Facebook contigo y cómo lo hace?” que realizó BBC el 04/11/16 sólo entre julio y setiembre de 2016, los ingresos de Facebook superaron los US$7.000 millones.

Una cifra tan grande que supera el Producto Interno Bruto de más de 40 países. De esos US$7.000 millones de ingresos que Facebook anunció ese año, US$6.820 millones corresponden a publicidad. 

Así que, sino fuese por el Big Data, Facebook no pudiese procesar toda la información para vender sus servicios de anuncios publicitarios y clasificar a sus según:

  • Ubicaciones geográficas.
  • Grado de instrucción académica.
  • Profesiones.
  • Intereses.
  • Comportamiento de compra, entre otros.

 

Usos del Big Data en el mundo

 

En vista de que el Big Data es simplemente un proceso, sus usos y aplicaciones son diversos e incontables.  A continuación, te mostramos algunos ejemplos donde el Big Data ha tenido gran pertinencia:

Aplicada al desarrollo y análisis de productos

 

Empresas como Netflix y Procter & Gamble usan Big Data para prever la demanda de los clientes. En el caso de Netflix, esta empresa utiliza los datos de sus suscriptores para recomendar contenido personalizado de acuerdo a sus gustos e historiales de visualización.

Esto le permite también dentro de su modelo de negocio, producir contenidos originales sabiendo previamente que temáticas abordar, qué series producir y qué talentos fichar.

Según un estudio de la empresa analítica Orcan Intelligence.  “A Netflix le llevó unos seis años recopilar los datos suficientes para estar seguros de que tenían todos los ingredientes necesarios para hacer una serie de éxito según lo que les decía el Big Data”.

Utilizando los datos de los hábitos de los espectadores, Netflix diseñó un contenido que tenía todos los elementos para convertirse en un fenómeno de éxito, demostrando cómo combinar Big Data con creatividad. 

La éxito de la serie House of Cards, fue el resultado de implementar el Big Data como estrategia para darle a sus suscriptores lo que estaban buscando ver.

En el caso de P&G, dicha empresa utiliza análisis datos en datos en grupos de interés, redes sociales, mercados de prueba y avances de salida en tiendas para planificar, producir y lanzar nuevos productos

Aplicado a la salud

 

Según un estudio realizado por IBM, el Instituto de Tecnología de la Universidad de Ontario (UOIT) junto con el Hospital de Toronto, utilizan IBM InfoSphere, una plataforma de Big Data que permite monitorear bebés prematuros en  salas de neonatología para determinar cualquier cambio en la presión arterial, temperatura, alteraciones en los registros del electrocardiograma y electroencefalograma.

El objetivo es detectar hasta 24 horas antes, aquellas condiciones que puedan ser una amenaza en la vida de los recién nacidos.

Por otro lado, la Universidad del Estado de Nueva York (SUNY) está aplicando herramientas de Big Data para contribuir en a la investigación, diagnóstico, tratamiento, y quizás hasta la posible cura de la esclerosis múltiple: enfermedad del sistema nervioso que afecta al cerebro y la médula espinal. 

Aplicado a la verificiación de fallas

 

Los laboratorios Pacific Northwest National Labs (PNNL) utilizan de igual manera IBM InfoSphere Streams, para analizar eventos de medidores de su red eléctrica y en tiempo real verificar aquellas excepciones o fallas en los componentes de la red, logrando comunicar casi de manera inmediata a los consumidores sobre el problema para ayudarlos en administrar su consumo de energía eléctrica.

En este sentido, el Big Data tiene tantas aplicaciones y uso que IBM desarrolla softwares y tecnologías para empresas, investigadores científicos y grandes organizaciones tengan acceso a los programas que le permiten aplicar el Big Data para procesar grandes volúmenes.

Si no fuese por este proceso, los modelos de negocios publicitarios no fueran tan exitosos. Tampoco, lo serían las tecnologías de inteligencia artificial.

Únete a la conversación, te invitamos a compartir este artículo.

No Comments
Post a Comment