Archivos de Autor: David Lizcano Casas

UDIMA realiza un gran avance en la consecución del Internet del Futuro y el manejo de datos estructuralmente complejos

 

Internet se ha convertido desde su aparición en una auténtica autopista de información globalizada. Existen millones de fuentes de datos remotas, de dominios médicos, técnicos, sociales, artísticos, periodísticos, del mundo del ocio y del mundo empresarial, fuentes todas ellas heterogéneas, almacenadas y publicadas en muy diversos formatos y formas.

Este ecosistema de fuentes de datos heterogéneas se hace más amplio gracias a la aparición del Internet de las Cosas, de las grandes fuentes de datos públicas (Open Data), de proveedores de bienes y servicios (Big Data) y a la web semántica y los datos entrelazados (Linked Data). Por todo ello, investigadores de la UDIMA se han puesto manos a la obra para crear un mecanismo automático de adaptación de datos estructurados que permita adaptar los datos originales al formato y estructura deseada, para posteriormente consumirlos en cualquier programa o aplicación, o aplicar sobre ellos cualquier técnica de descubrimiento de conocimiento. El mecanismo aparece en esta web (donde se ha puesto a disposición del colectivo científico y tecnológico de forma totalmente gratuita) y ha recibido una gran aceptación, con más de un millar de descargas en menos de un mes. La herramienta en cuestión, creada por el prof. David Lizcano (cuya tesis doctoral supuso el comienzo de esta investigación) y el prof. Juan Alfonso Lara, ha sido exitosamente aplicada a dominios tan dispares como la biomedicina (como se publicó en este blog recientemente), la economía y el estudio bursátil, el estudio de la computación cuántica, la predicción en el ámbito de la metereología, apoyo al estudio de dominios físicos o químicos, el estudio y prevención de desastres naturales, la creación de software basado en componentes, investigación del cloud computing y el desarrollo de apps móviles. Se trata por tanto de una investigación multidisciplinar de gran utilidad en el ámbito I+D actual.

Las investigaciones realizadas han dado sus frutos en forma de resultados, que ya han visto la luz bajo el título de «Data preparation for KDD through automatic reasoning based on description logic«, en forma de artículo científico publicado por la prestigiosa revista Journal of Information Systems. Se da la circunstancia de que esa revista está dirigida por Gottfried Vossen, director del European Research Center for Information Systems (ERCIS) e investigador principal que inició los estudios y desarrollos de Open Data, Big Data y Linked Data.

Los resultados obtenidos permiten adaptar datos ofrecidos por cualquier fuente de información que genere contenidos con cualquier complejidad en su estructura, adaptándolos a esquemas conocidos que permitan automatizar las tareas de procesado, estudio, visualización, transformación y explotación de dichos datos mediante aplicaciones software o técnicas de procesado habituales.

La seguridad en dispositivos móviles: tema principal en la MWC2014

Tras la clausura del congreso internacional MWC2014, finalizados los cinco frenéticos días de actividad, es hora de hacer balance en el ámbito de la TIC de tan prestigioso congreso. Si se analizan las ferias de muestras, lanzamientos, publicaciones y charlas mantenidas, dos temas han acaparado gran parte del interés público de este año: el crowdfunding (y las alternativas que se vislumbran en el panorama nacional tras el anteproyecto de la Ley de Fomento de la Financiación Empresarial y limitación a la financiación masiva de proyectos empresariales) y la seguridad.

La sociedad de la información está viviendo una auténtica revolución en cuanto a los dispositivos de acceso a Internet, y la securización de los mismos se ha convertido en un tema de vital relevancia, más allá de aspectos básicos de seguridad digital, criptografía o seguridad en Internet. Todas las tecnologías móviles presentadas presentan controles de acceso basados en biometría (como las huellas dactilares leídas por los nuevos iPhone o las nuevas lecturas biométricas del iris humano realizadas por el nuevo modelo de Samsung), pero la capa de seguridad provista por estos dispositivos va más allá, de forma que se incluyen capas software capaces de dividir el dispositivo, su funcionamiento y sus datos en diversas parcelas (por ejemplo datos personales y datos profesionales), cifrar la información de los dispositivos o monitorizar los procesos ejecutados en el mismo, para evitar software malintencionado.

Este nuevo panorama tecnológico abre sus puertas a un mercado de profesionales formados en el ámbito de la auditoría informática y de la seguridad de los sistemas de la información, donde se hace imprescindible dotar a hardware y software de los servicios de autenticación, confidencialidad, integridad, control de acceso, disponibilidad y no repudio, aspectos que todos los egresados de la UDIMA conocerán bien por su marcada intensificación y estudio en varias asignaturas obligatorias del grado en Ingeniería Informática.

Ésta es una realidad que se ha podido vislumbrar de forma patente en la MWC, y que poco a poco veremos trasladada a los mercados empresariales y a los productos que emplearemos a diario.

Las falacias de Internet: escollos en el camino del auto-aprendizaje

Hoy día es muy común que todo ingeniero informático, o aquel que aspire a serlo, se involucre de forma proactiva y personal en una carrera constante por el auto-aprendizaje y la actualización de sus conocimientos. En esta carrera, Internet representa sin duda un enorme universo de información y recursos disponibles para todo aquel que sepa cómo buscarlos, un faro para la sociedad de la información en la que vivimos, un elemento indispensable para la constante formación de ingenieros interesados en las más modernas tecnologías, como es el caso de los ingenieros informáticos.

Sin embargo, la Web 2.0 y su socializada versión de participación des-jerarquizada a menudo produce que los recursos e informaciones a las que podemos acceder no hayan pasado por unos controles de gestión/revisión de expertos. Cuando los contenidos revisados provienen directamente de blogs personales donde los gurús de las TIC vuelcan opiniones personales, es muy frecuente que el investigador se encuentre con numerosas falacias que debe ser capaz de vislumbrar para no enturbiar sus conocimientos objetivos.
A continuación, y gracias a una idea tomada del conocido blog ALT 1040, recopilo los distintos tipos de falacias que suelen encontrarse al buscar referencias y conocimientos en la Web, tanto para trabajos de investigación como para fundamentar desarrollos, conocimientos u otros intereses personales:

– La falacia ad hominem es muy habitual en entornos colaborativos como wikis o foros. Consiste en tratar de desacreditar una idea o fundamento atacando directamente a la identidad de su creador, en lugar de emplear refutaciones objetivas contra el aporte en sí. Está relacionada con la ley de asociación, a partir de la cual, una idea o propuesta puede recibir críticas infundamentadas en base a otras ideas previas del autor, o del grupo al que pertenece. Es muy común que grupos de desarrollo de software propietario, por ejemplo, reciban críticas del panorama open source, y a menudo se pueden leer críticas de productos o de ideas sin indagar en dicha idea, simplemente por recelo al autor o grupo.
– La falacia ad populum: consiste en tratar de defender una idea, dato o propuesta en base a la aceptación de la misma por parte de un gran número de lectores o expertos en un tema, más allá de fundamentar la idea de forma estadística, científica y/u objetiva. Es especialmente peligrosa pues puede frenar el pensamiento divergente, tan necesario en las áreas I+D de la informática en particular y de la ciencia en general.
– La falacia Cum hoc, ergo propter hoc: consiste en inferir que existe una relación causal entre dos o más eventos o sucesos por haberse observado una correlación estadística entre ellos. Es muy habitual en numerosos papers de investigación, y supone un grave error de apreciación en experimentos dirigidos con fundamentación estadística. Una correlación entre una variable dependiente y una explicativa simplemente proporciona información sobre los casos en los que dos sucesos se dan con simultaneidad. Sin más, no puede servir para establecer una relación causa-efecto. Un ejemplo actual de este fenómeno puede verse en el uso de las famosas Google Glasses por parte de una muestra estadísticamente representativa de usuarios VIP. Estos usuarios probaron las gafas, y tras unas semanas, se observó que muchos usuarios tenían presbicia. La falacia inundó foros y redes sociales: las gafas de google provocan vista cansada. Un estudio estadístico de la muestra demostró que las características de la muestra tenían un sesgo elevado en franjas de edades muy proclives a esta alteración visual. Una posterior encuesta demostró que los usuarios con problemas visuales los tenían ya antes de usar las gafas.
– La falacia ad verecundiam: consiste en dar validez a una idea en base a nuestra valoración objetiva o subjetiva del emisor de dicha idea. Es especialmente común en el caso de tecnócratas de la Web, pues una vez alcanzado cierto éxito o reconocimiento, pueden elaborar teorías o ideas sin fundamentarlas de forma adecuada, basándose en su fama alcanzada de forma previa. Un ejemplo de esta falacia puede encontrarse en unas palabras de Bill Gates, pronunciadas en 1981, en las que afirmaba «Nadie va a necesitar más de 640 Kb de memoria en su ordenador personal». Una afirmación tan categórica, efectuada por una persona que un año antes había logrado vender el MS-DOS a la gigante IBM, fue tomada muy en serio, y retardó la aparición de módulos de memoria RAM más amplios durante un buen periodo de tiempo.
– La falacia ad nauseam: hay ideas que de tanto repetirse de forma retirada, parecen convertirse en verdad. Esa es la clave de esta falacia muy común en Internet, y que puede provocar que una idea sea reiterada en diversos foros/grupos de difusión y finalmente termine siendo aceptada.
– La falacia a silentio: es muy común en foros tecnológicos donde se debaten las últimas noticias o avances en una rama o ciencia. En el momento en que un interlocutor no participa en un foro de discusión concreto, se le considera un iletrado en dicho tema, y de forma ulterior, se desprestigia o hace caso omiso de posteriores participaciones de dicho autor, por considerarlas provenientes de una persona no experta.
– Argumento ad consequentiam: consiste en una falacia inherente a la forma de percibir la realidad del ser humano. A menudo valoramos una idea, investigación o aportación científica en función de si su demostración desemboca o no en un hecho deseable para avanzar en el dominio del problema o en un hecho deseable en la sociedad en general.

Éstas son las falacias que me he encontrado de forma más asidua en Internet, y aunque no soy un experto en materia de argumentación lógica, sí creo que esta entrada puede servir para inquietar el espíritu crítico del rastreador de recursos e informaciones en la Web.

Desmaterializando nuestra experiencia con la Web

Hace poco más de una semana, creaba una entrada en este blog para describiros uno de los últimos artículos que hemos publicado en el ámbito I+D. Centrado en el desarrollo de tecnologías para acceder a servicios y recursos del Internet del Futuro, una de sus premisas pasa por lograr desmaterializar nuestras vías de acceso e interacción a Internet. Hoy presento aquí dos ejemplos de este nuevo tipo de acceso: Ubi y Google Glasses.

Ubi es un minicomputador manejado por comandos de voz, que requiere de una conexión a la red eléctrica para poder funcionar. Interactúa con el usuario final mediante tres vías: dictados de voz, datos enviados por wifi y datos accesibles vía web. Este pequeño computador permite acceder a estadísticas físicas del lugar en el que lo hemos dejado conectado a través de Internet (consultar si ha habido ruido, cambios de luminosidad, temperatura o humedad). Así mismo, es posible dialogar con el para que realice una búsqueda en Internet, marque por nosotros el número de teléfono de un contacto de Skype o nos lea un documento de texto.

Este mecanismo es un ejemplo claro de interacción con servicios y recursos web de forma desmaterializada.

Otro elemento muy de moda, que aboga por el mismo principio es el nuevo «gadget» de Google, las Google Glasses. Ideadas por la multinacional americana para que Internet nos acompañe en todo momento, estas gafas permiten acceder (por comandos posturales de la cabeza, pulsaciones en los botones de las gafas, o mediante comandos de voz) a servicios y recursos on-line, tales como nuestro correo electrónico, contenidos de google drive, páginas web, etc. Permiten tomar fotos y vídeo de forma nativa, interactuar con los sitios web de redes sociales, y disfrutar de las posibilidades de la denominada «realidad aumentada».

Eso sí, para lograr que Internet dé un paso definitivo en su evolución, es necesario que los recursos y servicios existentes en la Web sean accesibles de forma sencilla y homogénea, y que cualquier usuario pueda explotarlos para sus intereses. Y ahí es donde entra en juego la arquitectura EUD (End-user Development) que hemos presentado en nuestro artículo, y que sigue en proceso de desarrollo y mejora

Desarrollando las tecnologías del Internet del Futuro

A principios de año, el grupo de investigadores de la UDIMA centrados en Ingeniería del Conocimiento y Tecnologías de la información hemos publicado un artículo en la prestigiosa revista Future Generation of Computer Systems (número 3 del mundo en Grid Computing y eSciencie), denominado «Developing front-end Web 2.0 technologies to access services, content and things in the future Internet». En él, los autores plasmamos nuestra investigación y desarrollo sobre las tecnologías front-end para el consumo de recursos y servicios de Internet a lo largo de los próximos años. El objetivo es lograr eliminar las barreras formativas y tecnológicas existentes hoy día, que impiden que personas sin conocimientos de programación puedan explotar recursos y servicios, y componer aplicaciones o portales web que los integren y aprovechen realmente. Este hito permitirá evolucionar Internet: en sus comienzos se trataba de un canal unidireccional de consumo de información. La Web 2.0 nos permitió crear contenidos, establecer redes sociales y ver la Web como un canal bidireccional para compartir información. El próximo paso, perseguido por los autores, es darle mayor protagonismo al usuario final, fomentando la inteligencia colectiva y permitiendo que cada usuario pueda crear aplicaciones y portales web de forma sencilla y dirigida. Sólo cuando la computación y la tecnología salve las barreras epistemológicas y tecnológicas existentes, y logre rodear nuestras vidas y ponerse al servicio de toda la sociedad, se logrará que Internet alcance su verdadero potencial.
El artículo, aceptado con gran expectación hace meses, ha aparecido recientemente publicado, y ha sido aceptado y referenciado por multitud de grupos de trabajo centrados en los objetivos de Horizonte 2020. Esperemos que este sea el primer paso para lograr importantes avances en el ámbito I+D+i+d

El padre del computador moderno

Hace poco más de un mes, un grupo de investigadores de la UDIMA ha publicado un artículo en una revista de gran impacto internacional, sobre un curioso hallazgo. La arquitectura de los computadores modernos, donde una memoria almacena juntos datos e instrucciones que operan sobre esos datos, ha sido tradicionalmente atribuida a John von Neumann, hasta el punto de acuñarse tal arquitectura con su nombre. Desde la UDIMA se ha demostrado que el padre de dicha invención no es otro que Alan Turing, que propició tal hallazgo mientras buscaba una forma de dar solución al problema de la decidibilidad. Neumann se apropió de esta idea, privando a Turing de tal mérito, hecho
que documentamos los autores en dicho artículo, titulado «Turing and the Serendipitous Discovery of the Modern Computer».

En palabras de los revisores de la prestigiosa revista Foundations of Science:
– “The authors have done a very professional and exhaustive work by an orderly and thorough reasoning of events that makes us reflect on the origins of the modern computer.”
– «The paper is very interesting, engaging and was a pleasure to read. It is also an excellent piece of research”
– “This is an important paper which sheds new light on Turing’s work, and on the early days of the computer”

Alan Turing siempre fue un visionario en su tiempo, y a pesar de su increíble ingenio, fue adelantado en cada momento decisivo por sus contemporáneos en la consecución de cada invento, teorema o investigación. Pero lejos de desalentarse por ello, Turing siempre ideaba una forma completamente novedosa y original de llegar al mismo resultado o demostración pero de forma más eficiente, provechosa o productiva… Hasta tal punto que de sus ideas y demostraciones surgió la concepción del computador tal y como lo conocemos hoy día.