Investigación y Desarrollo
Tenemos una dilatada experiencia liderando y desarrollando proyectos de gobierno y gestión de la calidad de datos.
ECLIPSE (Enhancing Data Quality and Security for Improving Business Processes and Strategic Decisions in Cyber Physical Systems)
El objetivo principal de este proyecto es aportar modelos, métodos y técnicas que permitan a las organizaciones afrontar con éxito proyectos en el nuevo contexto de computación con Sistemas ciberfísicos (CPS), enfocándose fundamentalmente a cuatro áreas de mejora de los CPS, que son, los procesos en la organización, la analítica de negocio, la calidad e integración de los datos, y la ciberseguridad. Estas áreas de mejora abarcan tres niveles de abstracción diferentes: (i) dimensión organizativa y estratégica, (i) el diseño y construcción de los CPS y (iii) la operación y mantenimiento de dichos sistemas.
GEMA (Generation and Evaluation of Models for dAta Quality)
El objetivo general del proyecto GEMA es definir y validar técnicas para generar, adaptar, evaluar y mejorar los modelos de calidad de los datos. De este modo se podrá adaptar cualquier modelo de referencia de calidad de datos a los contextos específicos de los diferentes campos a los que se aplique (banca, seguros, salud, AA.PP., sector agroalimentario, etc.) ya que existen condicionantes legislativos, normativos, tecnológicos, de seguridad, etc. que hacen necesario modificar y particularizar los procesos de gobierno, gestión y calidad de datos a partir de un marco de referencia común e incluso en algunos ocasiones, es necesario introducir algunos nuevos procesos o reglas y dimensiones que afectan a los propios datos.
DQIoT: Desarrollo de una Plataforma para la Gestión de Calidad de Datos en el Ciclo de Vida del servicio de Productos IoT – Un Caso De Turbinas De Gas
El objetivo general del proyecto internacional es desarrollar un marco de trabajo que permita gestionar adecuadamente la calidad de los datos usados en entornos IoT; dicho entorno estará basado en los estándares internacionales ISO 8000 partes 60 a 62. Además, se particularizará para un contexto de turbinas de gas. En el dominio de la solución, a nivel particular DQTeam aplicará dichos conocimientos (evaluación de procesos software y gestión de calidad de datos) para participar activamente en el proyecto de cara a desarrollar un Modelo de Referencia de Procesos (MRP) y la adaptación del Modelo de Evaluación de Procesos (MEP) específicos para la gestión de la calidad de los datos en las operaciones de productos IoT. Será la combinación de los conocimientos con los otros partners, lo que permitirá generar los resultados planteados, específicamente desarrollados para despliegues de IoT con productos SCP.
SEQUOIA: SEcurity and QUality in PrOcesses with BIg Data and Analytics
El principal objetivo del proyecto coordinado SEQUOIA es aportar modelos, métodos y herramientas software que permitan a las organizaciones afrontar los proyectos de Big Data maximizando las posibilidades de éxito. Esto conlleva una aproximación sistemática y metodológica para incorporar Big Data en el proceso diario de toma de decisiones, considerando la sinergia entre enfoques de la Ingeniería del Negocio, Ingeniería del Software e Ingeniería de Datos.
LPS-BIGGER: Línea de Productos Software para BIG data a partir de aplicaciones innovadoras en Entornos Reales
El objetivo principal del proyecto LPS-Bigger es la creación del primer entorno de desarrollo para aplicaciones Big Data. Para la creación de este entorno de desarrollo seguiremos una aproximación de Línea de Producto Software (LPS). Una LPS es un entorno que permite crear de modo automatizado nuevas aplicaciones de un determinado tipo a partir de su especificación. La LPS genera la aplicación especificada por el usuario a partir de un repositorio de componentes software reutilizables que parametriza y “monta” para generar la nueva aplicación. La LPS propuesta usará un conjunto de componentes que cubren todas las fases del ciclo de vida de una aplicación Big Data.
SERENIDAD: Avances en la Seguridad y Calidad de la Construcción de Almacenes de Datos Basada en Modelos
El objetivo principal de este proyecto es iterar sobre las conclusiones obtenidas en el proyecto QUASIMODO, y adaptarlo a los avances tecnológicos. Entre las tareas a desempeñar destaca la integaración de aspectos e indicadores de calidad y seguridad a través de los nuevos paradigmas hibridos de desarrollo, la aplicación de patrones de seguridad en los almacenes de datos, o la creación d mecanismos que permitan la trazabilidad y validación de los requisitos de seguridad y calidad.
VILMA: Visualización y Medición de la Calidad del Proceso, Proyecto y Producto Software
El objetivo es el de aplicar los conocimientos adquiridos en proyectos anteriores relativos a la visualización con la finalidad de aplicarlos dentro del contexto de las diferentes perspectivas de la calidad en el desarrollo del software. Para ello, se aplicará un enfoque integrado que permita visualizar la calidad de los procesos de desarrollo, de los proyectos que se llevan a cabo a partir de dichos procesos y finalmente de los productos resultantes.
TALES: A Framework for Developing DaTa-QuaLitY-AwarenESs WEB Portals
El objetivo del proyecto es crear un entorno para el desarrollo de aplicaciones web sensibles a los aspectos de gestión de calidad de datos. Este entorno debe estar formado por dos elementos. En primer lugar, un componente metodológico consistente en una metodología para el análisis, diseño, e implementación de aspectos relacionados con la gestión de calidad de datos. En segundo lugar, un componente tecnológico, que permita mediante una herramienta guiar las acciones de la metodología creada, dar el soporte necesario al desarrollo e implementación de dichos requisitos de calidad de datos junto con los requisitos funcionales de la aplicación.
QUASIMODO: Quality and Security In Model Driven Data Warehouse Development
El objetivo de este proyecto este proyecto es la creación de un modelo de calidad y seguridad para el diseño de almacenes de datos que asegure estas características en las distintas etapas del proceso.
COMPETISOFT: Mejora de procesos para fomentar la competitividad de la pequeña y mediana industria del software de Iberoamérica
El objetivo general del proyecto es incrementar el nivel de competitividad de las PyMES Iberoamericanas productoras de software mediante la creación y difusión de un marco metodológico común que, ajustado a sus necesidades específicas, pueda llegar a ser la base sobre la que establecer un mecanismo de evaluación y certificación de la industria del software reconocido en toda Iberoamérica.
CALIPO: Calidad en Portales
El objetivo de este proyecto es asegurar la calidad de los portales, que dependerá de múltiples factores, tratados dentro del proyecto. El proyecto define un modelo de calidad para portales. Dentro de este modelo están incluidos todos aquellos aspectos que influyen en la calidad final del portal como son los datos del portal, las bases de datos, almacenes de datos, seguridad del portal, etc.
CALDEA: Calidad de Almacenes de Datos (Datawarehouses)
El objetivo principal a abordar en este proyecto es la definición de un conjunto de técnicas que permitan asegurar la calidad de los almacenes de datos, especialmente métricas de modelos y de datos, así como del propio proceso de desarrollo de almacenes de datos.
MANTICA: Definición de un conjunto de métricas para la mantenibilidad de bases de datos objeto-relacionales
El objetivo principal en este proyecto es el de elaborar un conjunto de métricas que permitan controlar la mantenibilidad de esquemas de bases de datos objeto-relacional a lo largo de todo el ciclo de vida de una base de datos. Para ello se analizan las métricas de software existentes y su aplicación a las bases de datos, así como el fundamento matemático para su definición y los métodos más adecuados para proceder a la validación de las métricas. Asimismo se desarrolla un entorno que permite el cálculo automático y la visualización de las métricas.
CALIDAT: Una metodología para la mejora de la calidad de datos
En la actualidad la mayor parte de las empresas se enfrentan a un grave problema de «polución de datos». Las empresas deben gestionar la información como un producto importante, capitalizar el conocimiento como un activo principal y, de esta manera, sobrevivir y prosperar en la economía digital. Mejorando la calidad de la información se conseguirá mejorar la satisfacción de los clientes y, al mismo tiempo, la satisfacción del personal, lo que hará mejorar la empresa en su conjunto. Existen, en general, dos aspectos a tener en cuenta en la calidad de la información: la calidad de la base de datos en su conjunto y la calidad de la presentación de los datos. Por lo que se refiere a la calidad de la base de datos en su conjunto, depende de tres «calidades»: la del SGBD (Sistema de Gestión de Bases de Datos) utilizado, la del modelo de datos (tanto conceptual como lógico) y la de los propios datos. Este objetivo principal puede concretarse en los siguientes objetivos específicos: elaborar un procedimiento para la evaluación de la calidad de bases de datos, definir un conjunto de métricas para valorar la calidad de los modelos de datos, definir un conjunto de métricas para valorar la calidad de los datos en: bases de datos, diccionarios de recursos de información, etc.
EINSTEIN: Una metodología para el diseño de almacenes de datos (Datawarehouses)
El objetivo de este proyecto es “construir una metodología para el diseño de almacenes de datos, que permita a los usuarios utilizar este nuevo tipo de sistemas de manera rigurosa y práctica”. En la primera fase se lleva a cabo un estudio en el que se analizan diversos SGBDR y SGBD multidimensionales, elaborándose un modelo de datos multidimensional. En la segunda fase se define una metodología, basada en Métrica V.3, y casos de prueba para su refinamiento. En la última fase se adapta la metodología a diversos SGBD del mercado, y se construye una herramienta CASE que facilita su aplicación.
ADAGIO (Alarcos’ DAta Governance framework and systems generatIOn)
Los datos son un elemento vital del desarrollo económico ya que permiten una mayor eficiencia en el uso de los recursos y un aumento de la productividad de las organizaciones. De acuerdo con la Estrategia Europea de Datos de la UE en el año 2030 se establecerá un Espacio Único Europeo de Datos que fomentará un ecosistema con nuevos productos y servicios basados en el uso, compartición y explotación de los datos.
AETHER (Una Aproximación holística de Smart data para el análisis de datos guiado por el contexto centrada en la calidad y la seguridad)
El proyecto Aether tiene por objetivo principal definir y desarrollar un marco de referencia que reúna diferentes técnicas de análisis de datos de interés en varias áreas de investigación (por ejemplo, en procesos empresariales y análisis de negocios) y lo suficientemente general como para poder adaptarse a una amplia gama de contextos heterogéneos. Este marco se enfoca no sólo en el recorrido de los datos desde las fuentes de datos (incluida su caracterización) hasta los resultados (incluida su explicabilidad), sino también en aspectos transversales como la semántica del dominio, la calidad de los datos, la seguridad, los procesos de negocio o los indicadores de rendimiento. Sin embargo, este conocimiento está disperso en varias áreas de investigación, lo que hace que este objetivo sea demasiado ambicioso para ser abordado por cada uno de los subproyectos de forma individual.