En los últimos dos años se ha generado un volumen de información superior al producido durante toda la historia de la humanidad
Las redes sociales y el big data son ya el “mejor termómetro” para captar el sentimiento de un país ante cualquier política pública, asegura a Efe el investigador de la Universidad Nacional Autónoma de México (UNAM), Fabián García.
En este sentido, una de las fuentes empleadas para la obtención de información es la red social Twitter en la que “se revisan alrededor de 60 millones de tuits para determinar su polaridad en un momento dado”, es decir, “si es positiva o negativa”.
García, quien ha participado en el simposio sobre “Advances and Applications of Data Sciene & Engineering” organizado por la Real Academia de Ingeniería (RAI) de Madrid, ha explicado que el Instituto Nacional de Estadística y Geografía de México (INEGI) elabora mapas que “reflejan el bienestar de la sociedad en función de los mensajes que envía” debido a que “cada uno de los tuits pueden estar asociados a un sistema de geolocalización”.
“Cada uno de ellos sufre un proceso de filtración para eliminar aquellos que no aportan nada, así como para reservar las palabras que se consideran clave y, mediante el uso de diferentes técnicas de inteligencia artificial, se llega a la conclusión de que un cierto mensaje esconde un aspecto positivo, negativo o neutro”, ha afirmado este investigador.
La fase de selección -explica- conlleva un “trabajo laborioso” dado que una persona puede ser “muy explícita” en algunos de sus mensajes, a través de los cuales “puede llegar a plasmar con facilidad si está de buen o mal humor”, pero hay algunos casos en los que se impregnan de “un cierto nivel de indefinición o sarcasmo”.
Hoy en día, gracias a las técnicas de inteligencia artificial denominadas “de aprendizaje profundo”, se ha avanzado hasta llegar “a un nivel más preciso de definición que permite adoptar una postura en uno u otro sentido”.
Yacimientos de petróleo
Otro de los ámbitos en los que ha trabajado García ha sido en la aplicación de las tecnologías de la información y la comunicación en la detección de yacimientos de petróleo mediante el procesamiento de datos sísmicos.
En este campo, “se utilizan algoritmos que se aplican a la información sobre terremotos para comprobar cómo será la naturaleza del terreno, además de determinar su origen “con una cierta probabilidad” y, a continuación, “se preparan los equipos de perforación para que apunten el lugar exacto”.
Para ello, este científico y su equipo han desarrollado un software basado en estas técnicas que son empleadas en la actualidad por la empresa estatal de petróleo en México (PENEX).
“El big data puede utilizarse en todo aquello que pase por la imaginación”, ha apuntado García, quien ha puesto en valor “el enorme volumen de información que se genera a cada minuto” que, en el caso de los últimos dos años, “ha sido superior al producido durante toda la historia de la humanidad”.
Ha puesto como ejemplo al sector sanitario y, en concreto, el Expediente Digital Único en Salud de México (EDUS) mediante el que se pueden establecer tendencias sobre “cómo se ha comportado la población bajo ciertas enfermedades” o, en el caso de las epidemias, “se predice hacia dónde se dirigen, cuánto pueden crecer…, para, a continuación, “tomar decisiones al respecto”.
“El conocimiento crece de una forma geométrica y se localiza en los dispositivos móviles, en las pulseras que miden el ritmo cardíaco o los pasos y, a través de la geolocalización, se añade una posición a todos los parámetros”, ha apostillado el experto.
A su juicio, la ciencia de datos requiere una “labor enorme” tanto en el área de las matemáticas, la estadística o en la de computación e informática dado que “implica el manejo de una gran cantidad de datos mediante sistemas de supercómputo que permitan obtenerlos en escalas de tiempo muy breves”. EFE