Autor: Fernández, Javier D.
Cargando...
E-mails conocidos
jfernand@wu.ac.at
Fecha de nacimiento
Proyectos de investigación
Unidades organizativas
Puesto de trabajo
Apellidos
Fernández
Nombre de pila
Javier D.
Nombre
Nombres alternativos
Afiliaciones conocidas
Computer Science Department. University of Valladolid
Institute for Information Business Vienna University of Economics and Business (WU), Austria
Vienna University of Economics and Business (WU)
Institute for Information Business Vienna University of Economics and Business (WU), Austria
Vienna University of Economics and Business (WU)
Páginas web conocidas
Página completa del ítem
Notificar un error en este autor
3 resultados
Resultados de la búsqueda
Mostrando 1 - 3 de 3
Artículo Compresión de Big Semantic Data basada en HDT y MapReduceGiménez-García, José M.; Fernández, Javier D.; Martínez-Prieto, Miguel A.. Actas de las XXI Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2016), 2016-09-13.HDT es un formato binario diseñado para la serialización de grandes colecciones RDF que surgió con el objetivo de reducir los requisitos de almacenamiento que presentaban otros formatos RDF. Además de su capacidad para la compresión, la estructura interna de los ficheros HDT permite acceder a los datos comprimidos y, con ello, resolver algunas consultas interés en el ámbito de la Web Semántica. Existen diferentes aplicaciones basadas en HDT, como la exitosa Linked Data Fragments, que sacan provecha de sus particularidades para propósitos de publicación intercambio y consumo de colecciones RDF. Sin embargo, la obtención de estas representaciones está gravada por un proceso de compresión que resulta muy exigente en el consumo de memoria principal. Este hecho, limita la adopción de HDT en aplicaciones basadas en la explotación de Big Semantic Data. En este artículo presentamos HDT-MR, una revisión del algoritmo de construcción de HDT basada en tecnología MapReduce. Esta nueva propuesta plantea configuraciones optimizadas de jobs MapReduce que permiten i) identificar los vocabularios de URIs y literales, necesarios para la construcción del diccionario HDT y ii) codificar los triples utilizando los diccionarios ya comprimidos. Nuestra experimentación muestra que el rendimiento de HDT-MR es lineal con el volumen de los datos de la entrada y que el despliegue actual, realizado sobre un cluster Hadoop, es capaz de serializar colecciones RDF que contienen miles de millones de triples.Artículo iHDT++: un Autoíndice Semántico para la Resolución de Patrones de Consulta SPARQLHernández Illera, Antonio; Martínez-Prieto, Miguel A.; Fernández, Javier D.. Actas de las XXII Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2017), 2017-07-19.La publicación de colecciones RDF, y el volumen de las mismas, ha crecido exponencialmente en los últimos años, abriendo nuevos retos de investigación relacionados con el almacenamiento, el procesamiento y la consulta de Big Semantic Data. Los auto-índices RDF son una de las soluciones más innovadoras en este escenario, ya que no sólo comprimen las colecciones, sino que además proveen acceso eficiente a los datos sin descomprimirlos previamente. En este escenario, HDT es una de las soluciones de referencia y su uso ha sido validado por diferentes herramientas semánticas. Sin embargo, la efectividad de HDT está limitada por la sencillez de su diseño y sus ratios de compresión han sido recientemente mejorados por HDT++. Sin embargo, HDT++ no soporta directamente la resolución de consultas SPARQL. En este artículo extendemos HDT++ para dar soporte a la resolución de todos los triple patterns SPARQL. Esta nueva propuesta (iHDT++) mejora los resultados de compresión obtenidos por HDT y garantiza un rendimiento comparable para la resolución de consultas.Artículo v-RDFCSA: Compresión e Indexación de Colecciones de Versiones RDFCerdeira-Pena, Ana; Fariña, Antonio; Fernández, Javier D.; Martínez-Prieto, Miguel A.. Actas de las XXI Jornadas de Ingeniería del Software y Bases de Datos (JISBD 2016), 2016-09-13.La compresión, la indexación y la consulta de colecciones RDF son tópicos emergentes en la conocida como Web de Datos. Sin embargo, las técnicas más relevantes en el estado del arte no van más allá de la visión estática de los datos y obvian el cómo estos archivos RDF evolucionan a lo largo del tiempo, generando múltiples versiones de la colección que precisan ser preservadas para su explotación en diferentes tipos de aplicaciones. En este artículo presentamos una nueva solución para la compresión de archivos RDF. Nuestra propuesta, referida como v-RDFCSA, extiende el auto-índice RDFCSA con estructuras de bits que implementan la codificación de la información de versionado. De esta manera, conseguimos preservar los triples RDF en espacio comprimido y, sobre ellos, resolver tanto patrones SPARQL como operaciones temporales de consulta basadas en dichos patrones. Los experimentos realizados, sobre el benchmark BEAR, muestran que v-RDFCSA reduce los requisitos de almacenamiento entre 35 y 60 veces respecto al estado del arte y consigue más de un orden magnitud de ventaja en la resolución de consultas.