Internet se ha convertido desde su aparición en una auténtica autopista de información globalizada. Existen millones de fuentes de datos remotas, de dominios médicos, técnicos, sociales, artísticos, periodísticos, del mundo del ocio y del mundo empresarial, fuentes todas ellas heterogéneas, almacenadas y publicadas en muy diversos formatos y formas.
Este ecosistema de fuentes de datos heterogéneas se hace más amplio gracias a la aparición del Internet de las Cosas, de las grandes fuentes de datos públicas (Open Data), de proveedores de bienes y servicios (Big Data) y a la web semántica y los datos entrelazados (Linked Data). Por todo ello, investigadores de la UDIMA se han puesto manos a la obra para crear un mecanismo automático de adaptación de datos estructurados que permita adaptar los datos originales al formato y estructura deseada, para posteriormente consumirlos en cualquier programa o aplicación, o aplicar sobre ellos cualquier técnica de descubrimiento de conocimiento. El mecanismo aparece en esta web (donde se ha puesto a disposición del colectivo científico y tecnológico de forma totalmente gratuita) y ha recibido una gran aceptación, con más de un millar de descargas en menos de un mes. La herramienta en cuestión, creada por el prof. David Lizcano (cuya tesis doctoral supuso el comienzo de esta investigación) y el prof. Juan Alfonso Lara, ha sido exitosamente aplicada a dominios tan dispares como la biomedicina (como se publicó en este blog recientemente), la economía y el estudio bursátil, el estudio de la computación cuántica, la predicción en el ámbito de la metereología, apoyo al estudio de dominios físicos o químicos, el estudio y prevención de desastres naturales, la creación de software basado en componentes, investigación del cloud computing y el desarrollo de apps móviles. Se trata por tanto de una investigación multidisciplinar de gran utilidad en el ámbito I+D actual.
Las investigaciones realizadas han dado sus frutos en forma de resultados, que ya han visto la luz bajo el título de «Data preparation for KDD through automatic reasoning based on description logic«, en forma de artículo científico publicado por la prestigiosa revista Journal of Information Systems. Se da la circunstancia de que esa revista está dirigida por Gottfried Vossen, director del European Research Center for Information Systems (ERCIS) e investigador principal que inició los estudios y desarrollos de Open Data, Big Data y Linked Data.
Los resultados obtenidos permiten adaptar datos ofrecidos por cualquier fuente de información que genere contenidos con cualquier complejidad en su estructura, adaptándolos a esquemas conocidos que permitan automatizar las tareas de procesado, estudio, visualización, transformación y explotación de dichos datos mediante aplicaciones software o técnicas de procesado habituales.