Universidad Nacional de General Sarmiento - Instituto de Industria

05 de Octubre de 2015 | 5 ′ 46 ′′


“Grandes datos”, el desafío del análisis de cúmulos de información



Con la llegada del mundo digital hubo una explosión en la cantidad de datos no estructurados provenientes del uso de redes sociales, correos electrónicos, informes médicos digitales, compras online, declaraciones de impuestos, sensores y circuitos cerrados de video, entre otros. Trabajar en el almacenamiento, clasificación, análisis y gestión de este gran cúmulo de información es el desafío de big data, o grandes datos.

Día a día crece la cantidad de datos que los seres humanos creamos y almacenamos en la Web. En la Argentina, y en un solo minuto, Google recibe cerca de dos millones y medio de nuevas búsquedas, se suben 3.9 horas de video a Youtube, Facebook recibe más de 55 mil “me gusta”, se generan poco menos de 10 mil twits, y se gastan cerca de 76 mil pesos en comercio electrónico, según los datos facilitados por el Observatorio de internet en Argentina a través de su Web inter.net.ar.

Si guardáramos todos los bits y bytes creados en el último año en CD’s, podríamos construir una torre que llegaría desde la Tierra hasta la Luna, de ida y vuelta, estima el gigante informático IBM. Tradicionalmente, la información se almacenaba en bases de datos pero, con la llegada del mundo digital hubo una explosión en la cantidad de datos no estructurados provenientes del uso de redes sociales, los correos electrónicos, informes médicos digitales, compras online, declaraciones de impuestos, sensores y circuitos cerrados de video, entre otros. Trabajar en el almacenamiento, clasificación, análisis y gestión de este gran cúmulo de información es el desafío de big data, o grandes datos.

A diferencia de los datos estructurados como los que figuran en las bases de datos de la AFIP, los datos no estructurados necesitan ser analizados con nuevas herramientas y enfoques, explica a Argentina Investiga el computador Javier Martínez Viademonte, investigador docente del Instituto de Industria (IDEI) de la Universidad Nacional de General Sarmiento (UNGS). Así, según los especialistas, el big data debe lidiar con las denominadas “tres v”, gestionar un gran volumen de datos, con la mayor velocidad posible y teniendo en cuenta su gran variedad.

“Sin el uso de nuevas técnicas de big data, simplemente hay información que no puede obtenerse de los datos que se generan debido a su volumen y el tiempo que llevaría procesarlo. Quizá podría pensarse que big data es un tema transversal que posibilita o complementa el desarrollo de otras áreas, como la inteligencia artificial o la internet de las cosas, referido a la interconexión digital de objetos cotidianos con internet, por ejemplo”, sostiene Javier Godoy, estudiante de la licenciatura en Informática y becario del IDEI del área de informática.

Campos tan variados como la salud, la genética, el agro, las redes sociales, el marketing y las finanzas utilizan el análisis que proporcionan los grandes datos para la toma de decisiones.

“El enfoque de big data también facilita, entre otras cosas, lo relativo al seguimiento de la información en tiempo real, como por ejemplo las congestiones de tráfico, los ataques a sitios de internet o la inagotable fuente de interés que son las redes sociales. Ahí aparecen innumerables aplicaciones, desde los asistentes como Google Now, hasta la publicidad dirigida”, profundiza Martínez Viademonte.

Tal es la variedad de la información disponible en el ciberespacio que, por ejemplo, se puede saber cuáles son las palabras que más se mencionaron en los últimos diez años en las secciones de economía de los diarios Página/12 y La Nación, y sacar diversas conclusiones. Según el análisis realizado por Godoy, entre los diez términos más mencionados en Página/12 se encuentran “central” y “nacional”, palabras que no forman parte del top ten del diario La Nación, en el que sí aparecen los términos “inflación” y “pasado”.

En la actualidad, en el marco de una beca del Consejo Interuniversitario Nacional de estímulo a las vocaciones científicas, el equipo del IDEI busca predecir la producción de un cultivo a partir de las condiciones del medio. Las máquinas cosechadoras tienen sensores que a su paso miden la humedad del suelo y el rendimiento de las semillas, entre otras variables. “Con esta información, la pregunta que tenemos que responder con big data es ¿qué semilla debemos plantar en determinado suelo para obtener el máximo rendimiento? Y esa es una conclusión que se puede sacar a partir del análisis de todos los datos”, explica Martinez Viademonte, codirector de la beca y coordinador de la Licenciatura en Sistemas de la UNGS.

¿Big data modifica la forma en la que nos relacionamos con la información? “Sí, con big data se puede hacer un análisis más personalizado de los usuarios, y esto permite recomendaciones específicas en base a los patrones de comportamiento de los usuarios. Es más que probable que elegir un producto frente a otro o un destino para viajar muchas veces ya no sea coincidencia, sino una influencia que se logra con el análisis de la información. Algo similar pasa con la música que escuchamos. Empresas como Spotify predicen los gustos musicales de los usuario con big data, por lo que las recomendaciones no son casualidad”, responde Godoy. Y Martínez Viademonte profundiza: “Estamos generando muchísima información pero todavía no logramos resolver los temas asociados como privacidad, derecho o valor económico”.


Marcela Bello


Cómo será el trabajo después de la pandemia

La pandemia ha reconfigurado el trabajo en todo el mundo y está dejando como consecuencia la pérdida de millones de puestos. En la Argentina, los más afectados son los trabajadores informales y los pequeños y medianos empresarios. En entrevista con Argentina Investiga, Enrique Deibe, director del Instituto de Investigación de Producción, Economía y Trabajo de la UNLa, habla acerca de cómo será el futuro del trabajo en nuestro país.

Ser digital en tiempos de pandemia

Ser digital en tiempos de pandemia

La UNNOBA mantiene sus tareas esenciales en funcionamiento gracias a la infraestructura y los programas que implementa. ¿Hay riesgos de colapso comunicacional?, la creciente demanda ¿hará caer toda la infraestructura de internet? Diálogo con el prosecretario de TIC de la Universidad, Hugo Ramón.

Con Big data predicen la evolución de la pandemia

Un equipo de físicos, matemáticos y bioquímicos de la Universidad Nacional del Nordeste y el Conicet cuenta con resultados preliminares del procesamiento de datos de casos de COVID-19 y su predicción probabilística. Los resultados del estudio permitirán conocer la proyección que tendrá la pandemia en cada una de las provincias.

Finaliza SAVE: investigación sobre análisis y visualización de información extraída de dispositivos móviles

Investigar en informática forense implica orientar los esfuerzos de los investigadores a facilitar la labor de los operadores judiciales, quienes manejan cada vez mayores volúmenes de información digital. Uno de los recursos más extendidos para recuperar información son los dispositivos móviles, objeto de estudio de SAVE, proyecto de investigación y desarrollo de InFo-Lab.

La intolerancia argentina emerge con fuerza en los foros de los diarios

La intolerancia argentina emerge con fuerza en los foros de los diarios

Un investigador estudia la participación ciudadana y encuentra una marcada grieta social en los comentarios digitales.

Una herramienta para detectar enfermedades neurodegenerativas

Una herramienta para detectar enfermedades neurodegenerativas

Investigadores rosarinos diseñaron una aplicación informática que permite la normalización y comparación de imágenes del cerebro obtenidas con diferentes equipos y protocolos. Esta herramienta permite comparar estudios de diferentes centros de salud o a lo largo del tiempo, facilitando la producción de datos estadísticos.

Canal de videos 104