Big Data, Big Business

Profundizar en el conocimiento de nuestro cliente, obtener orientaciones precisas para el futuro, crear nuevas oportunidades de mercado: esto nos permiten, actualmente, las nuevas fronteras del Big Data.

De Hadoop a Big Knowledge
Exprivia es el partner perfecto para crear valor a partir del proceso de refinamiento del dato simple, el cual se convierte en una valiosa información gracias a las competencias de business, analíticas y técnicas del Grupo.
Solicitud de información
La aparición, en 2011, de nuevas arquitecturas basadas en Hadoop ha conllevado una drástica reducción de los costes de elaboración de grandes cantidades de datos, permitiéndoles a las empresas aprovechar plenamente toda la información disponible, incluso proveniente de fuentes no estructuradas. En este contexto, Exprivia ha propuesto soluciones dictadas por una experiencia en el mundo Big Data que se remonta a cuando esta terminología, ahora tan de moda, no era tan difusa. Esta experiencia ha producido “Deep Knowledge” sobre cuya base algorítmica se ha realizado “Big Knowledge”, basado, precisamente, en arquitectura Hadoop.

Los proyectos
Los proyectos Exprivia se caracterizan por su innovadora gestión de datos estructurados, no estructurados o híbridos en clave de refinamiento de datos. Es significativo el uso de las soluciones propietarias Exprivia BigKnowledge y Normasearch.

Gestionar datos estructurados y no estructurados
En algunos casos, la necesidad principal es gestionar importantes volúmenes de datos principalmente estructurados. Las empresas pueden beneficiarse tanto del ahorro en términos de hardware, como de la posibilidad de realizar análisis y cálculos al vuelo, normalmente muy costosos con arquitecturas estándar.

Un ejemplo, es un tablero estadístico, que ofrece gráficos interactivos, basado en un motor de búsqueda Big Data (ClouderaSearch) para garantizar análisis rápidos en sets de datos dependientes del analista (por lo tanto no precalculables). El uso de un motor de búsqueda (y no de una base de datos estándar) acelera en gran medida todo el proceso.

Otro ejemplo es un sistema de back end para los datos de recibos, desarrollado en la plataforma big data (Cloudera), que consta de dos componentes principales:

  1. motor de reconocimiento de la facturación en papel. Partiendo de la foto de la factura/recibo/ticket de compra, mediante técnicas de búsqueda de patrones, el sistema individúa información como: ejercicio, fecha y hora de pago, valor total, productos específicos. Con estos datos se alimenta una base de datos que utiliza HIVE;
  2. sistema de análisis que, partiendo de los datos recogidos, permite comprobar la penetración de un producto de acuerdo con un perfil demográfico geolocalizado (los datos sobre el perfil se reúnen con el inicio de sesión en red social o con un registro estándar desde la App), las comparaciones de ventas de diversos productos en el interior de la misma cadena de GdO (Gran Distribución Organizada) o entre cadenas de GdO que compiten entre sí. La información se encuentra disponible mediante servicios de acceso a datos (en este caso, el cliente los integra en sus sistemas de business intelligence) y con informes basados en Pentaho (solución de BI open source). Todo el sistema funciona en Amazon Cloud.

En otros casos, la mayoría de los datos no son estructurados o son híbridos, lo que requiere la capacidad de recuperación de información propia del Big Knowledge a la hora de buscar y seleccionar en Internet abierta y en documentos internos (pdf, Word, e-mail, etc.) toda la información necesaria, reduciendo así la sobrecarga informativa gracias a técnicas avanzadas de análisis semántico. La inteligencia artificial de BK le permite al sistema crear reglas en base a la información tratada y, por lo tanto, buscar de forma automática la información en la web o en los almacenes de documentos individuados. El paso sucesivo es estructurar dicha información de modo que el cliente la pueda utilizar de forma simple e intuitiva.

Esta versatilidad proyectual da lugar a muchas e interesantes soluciones:

  • Normasearch, para la búsqueda en Internet abierta de nuevas noticias cuya selección está dictada por normas generadas por el propio sistema oportunamente “instruido”;
  • DFA para la reconstrucción de los pasos previos a la negociación. El sistema analiza todos los intercambios de información sobre los acuerdos (llamadas de voz, chat, correo electrónico) para poder certificar que cada acuerdo se haya cerrado conforme a los procedimientos internos;
  • Threat Intelligence, que utiliza el componente de recuperación de la información de Big Knowledge para la búsqueda de información relativa a nuevos ataques informáticos, no solo vinculados a normativas de seguridad, tanto en Internet abierta como en Internet profunda. En este caso, la categorización de los datos se realiza utilizando el producto “Cogito” de Expert System;
  • Competitive Intelligence, para buscar en una serie de sitios, con un determinado perfil, información relativa a licitaciones. En una Base de Datos clásica se estructuran las nociones útiles para el análisis (adjudicatario, precio, tipo de construcción, duración de la licitación, etc.), reduciendo así en gran medida el tiempo necesario para que los analistas puedan encontrar estos datos;
  • Asset Protection para monitorizar todos los intercambios de información relativos a documentos tutelados con acuerdo de confidencialidad. El sistema crea una visualización gráfica de todos los intercambios con fines jurídicos, ya que es capaz de comprender que se está hablando de argumentos protegidos y de saber con qué medio se está haciendo.

Data Lake

A la gestión de datos de las más diversas formas se añade la actividad de construcción del Data Lake, es decir, la infraestructura Big Data fundamental en la que se reúne el universo de la información pormenorizada disponible sobre los clientes, la cual se pondrá a disposición de los científicos de datos internos de la empresa para posteriores elaboraciones.