Cap 14: Big Data y Open Data

Events

Iniciativas de Open Data

2007 - 2012

Desde el 2007, existen iniciativas a nivel nacional como es el Proyecto Aporta dentro del Plan Avanza que viene planteando que todas las administraciones locales, autonómicas y centrales están llamadas a hacer pública la información que generan.
Estados Unidos, Reino Unido y España son ejemplos de ellos.
Aunque es de esperar, en el 2012 se les integraran muchos mas.

El universo digital de EMC/ICD

Mar 2007 - Jun 2011

La consultora tecnológica IDC Corporation publicó su primer informe de la información digital almacenada en el mundo en el año 2007 y sus predicciones de crecimiento para el año 2010.
En 2006, la cantidad de información digital creada, capturada y guardada
era de 161 exabytes.
Entre 2006 y 2010 la información que se añadirá anualmente al universo digital se incrementaría desde 161 exabytes a 988 exabytes.
IDC predecía que en 2010, casi el 70% del universo digital sería creado por los individuos y que la seguridad de la información y la protección de la privacidad serían uno de los temas más preocupantes.
Las cifras dadas en 2008 eran de 281 exabytes en 2007 y se
preveía para 2011 la cantidad de 1800 exabytes (1,8 ZB) o sea 10 veces la información producida en 2006.
En 2009 la cigra llego a 487 de exabytes.
En 2010 hubo un crecimiento del 63%.
El crecimiento previsible para el año 2010 alcanzaría la cifra de 1,2 millones de Petabytes, o sea 1,2 Zettabytes.

La era del Petabyte

2008

En junio de 2008, la revista Wired daba el pistoletazo de salida para anunciar no sólo la nueva era del petabyte, sino también la adopción creciente del modelo de la computación en nube.
La era del Petabyte” que estábamos pasando era de medidas de almacenamiento digital en terabytes a una nueva era en que la unidad de medida de los datos digitales sería el petabyte.

Big Data y sus comienzos

2009

Consultora IDC, en un informe que realiza por encargo de la empresa de almacenamiento EMC para ver como seria el alcance de Big Data, cifraba en 0,8 Zetabytes y pronosticaba que para el año 2020 esta cifra subiría a 35 Zetabytes, esta cantidad se multiplicaría por 44 en una década.

La información publica al ciudadano

2009 - 2011

La nueva administración de los Estados Unidos inició en 2009 la iniciativa de Open Data y en paralelo la Unión Europea ha ido adoptando también dicha iniciativa. En España los pioneros han sido dos gobiernos autonómicos: el Principado de Asturias y el País Vasco.
La iniciativa del Gobierno Vasco se ha plasmado en la puesta en funcionamiento de Open Data Euskadi que pretende crear un sitio web donde la información re utilizable está al alcance de cualquiera.

Datos en todas partes

2010

The Economist, en 2010, establecio en su revista popular que en 2010 los datos estaban en todas las partes, y que la inflación de datos que existía a principios del año 2010 seguiría creciendo.
Cifras notables se referían a un Petabyte como la información digital equivalente a 10.000 millones de copias de The Economist. Y consideraba también la cifra de 1,2 Zettabytes ya prevista por los informes del Universo Digital de EMC.

Almacenamiento y mejoras

2010

Las expectativas de almacenamiento también han sido superadas y las estimaciones de 2010 han sido rebajadas en un 10%.
La protección de información personal, la movilidad, y los efectos secundarios del almacenamiento móvil son algunas razones.

OPEN DATA

2010 - 2011

En 2011, Web Summit dijo que el futuro social de la educación está en los datos, en la calidad de los mismos, los datos abiertos (open data), la libertad de los datos, que éstos puedan fluir para el acceso de cualquier persona y que, a su vez, puedan ser aprovechados.
El movimiento de datos abiertos (Open Data) comenzó su explosión en el año 2010 y continúa creciendo a pasos agigantados, sobre todo por el apoyo ofrecido por el gobierno de los Estados Unidos, en Europa y demás.
Los datos abiertos son muy aprovechables y generan valor añadido a las empresas.

La revolución de los datos

2011 - 2012

The Economist publicó el 26 de mayo de 2011 y en su reputada sección Schumpeter un excelente artículo sobre Big Data en donde se resalta que la revolución de los datos estaba cambiando el paisaje de los negocios. El último año (2010), señala The Economist, las personas habían almacenado datos suficientes para rellenar 60.000 Bibliotecas del Congreso de los Estados Unidos.
The Economist destaca que el número de teléfonos inteligentes está aumentando en un porcentaje del 20% y el número de sensores desplegados en el mundo aumentaría 30%.

BIG DATA

2011 - 2012

Big Data y Open Data son dos grandes corrientes tecnológicas y también de pensamiento que están llegando a todo el mundo y que se integran dentro del movimiento de cloud computing y a lo largo del 2011 y en los meses sucesivos se producirá una convergencia entre el modelo de la nube y los big data; éste ha sido el lema central de la conferencia EMC Word 2011 celebrada en Las Vegas en mayo de 2011.
Cloud Computing y Big Data son dos de los términos de impacto creciente en las tecnologías de la información y los eventos relacionados con ambos conceptos se producen de modo continuo a lo largo y ancho de todas las regiones geográficas del mundo.

El universo de datos

2011

En un estudio producido por IDC y EMC en 2011
refleja que mientras los dispositivos y las aplicaciones que crean o
capturan información digital crecen rápidamente, también lo hacen los dispositivos que almacenan información. El estudio constata el hecho de que los medios de almacenamiento son cada vez más económicos, ya que permiten tomar fotografías de alta resolución con los teléfonos celulares, que a su vez generan una demanda de más medios de almacenamiento y las unidades de mayor capacidad permiten replicar información, lo que a su vez facilita e impulsa el crecimiento de contenidos.

Implementación en la actualidad

2012 - Present

Oracle, en su último congreso de desarrolladores Open World 2011 celebrado a principios de octubre de 2011, ha presentado programas para gestión eficiente de los big data, Big Data Appliance, un sistema de ingeniería nacido con el fin de ayudar a los clientes a maximizar el valor de los grandes volúmenes de datos corporativos