Seleccionar página
Arquitecturas limpias y DDD, un recorrido práctico. Parte 2

Arquitecturas limpias y DDD, un recorrido práctico. Parte 2

Arquitecturas limpias y DDD, un recorrido práctico. Parte 2

Arquitectura | DDD | Desarrollo

En el anterior post de esta serie sobre arquitecturas limpias y DDD, se introdujeron los conceptos básicos sobre dicha arquitectura y se discutió sobre la filosofía de diseño separada en capas, sus elementos y características fundamentales y por supuesto sobre las ventajas de su uso.

Llegados a este punto, cabe preguntarse cómo pasar a la acción. Dicho de otro modo, planteado un problema funcional o un caso de uso a implementar, ¿cómo aplicar DDD? A lo largo de este y de los siguientes posts de la serie, se tratarán los siguientes puntos al respecto:

  • Planteamiento de un problema funcional real.
  • Aplicación y uso de lenguaje ubicuo.
  • Diseño estratégico de la solución.
  • Diseño táctico e implementación.
Diagrama de arquitectura hexagonal

Problema: control de operaciones en manufactura

Tomemos como ejemplo un problema de digitalización característico de una empresa manufacturera y su flujo de producción, donde los operarios deben realizar ciertas tareas para acabar una orden de trabajo que, en última instancia, permite fabricar un producto.

La forma de trabajo habitual de los operarios es la siguiente:

  • De cada orden de trabajo que les facilitan, toman una o varias de las operaciones que deben realizar, según sus conocimientos y certificaciones, y comienzan a trabajar en ellas.
  • Marcan la tarea como asignada al operario y en progreso, para que nadie la tome de nuevo.
  • Una vez acabada la tarea, la marcan como finalizada y vuelven al principio del proceso.

Cabe destacar, como restricción, que las operaciones sólo pueden encontrarse en un estado a la vez, es decir, o están por hacer, o están en proceso o están finalizadas. De manera resumida, su flujo es el siguiente:

Flujo simple de gestión de operaciones

¡Veamos como podemos implementar este problema!

Nuestro aliado el lenguaje ubicuo. Conceptos de negocio

The use of language on a project is subtle but all-important […] to create a supple, knowledge-rich design calls for a versatile, shared team language, and a lively experimentation with language that seldom happens on software projects.

 

Eric Evans – Domain-driven design. pp.23 – 24.

Una de las partes más importantes de DDD es el lenguaje. De las sesiones del equipo (equipo de desarrollo y expertos del dominio, se entiende) debe emerger un lenguaje consensuado entre todos que explique el modelo de forma unívoca. Para ello, hay que prestar especial atención a lo que nos comunican los propios expertos del dominio.

Para este ejemplo en particular, tomaremos la explicación anterior como la información que tenemos del dominio (imaginemos que ha sido un experto quien nos la ha facilitado) y extraeremos, de manera somera, los conceptos y entidades más importantes:

  • Operario. Usuario técnico que ejecuta las operaciones. Cada operario tiene habilidades (skills) que les permitirá o no ejecutar una operación.
  • Orden. Una orden de trabajo es el conjunto de operaciones que uno o varios operarios deben llevar a cabo para producir un bien o servicio, dado unos recursos consumibles.
  • Operación. Las operaciones son la unidad mínima de trabajo que un operario debe ejecutar para conseguir acabar una orden de trabajo. Todas las operaciones pertenecen a una orden concreta, deben ejecutarse por operarios con los skills necesarios y son cambiadas de estado durante el flujo de trabajo del operario. Pueden encontrarse en 3 estados diferentes: TODO, DOING y DONE.

Diseño estratégico: la hora de la verdad

Durante la etapa de diseño estratégico el equipo de desarrollo, junto con los expertos del dominio, deben definir los bounded contexts, el lenguaje ubicuo y los context maps que expliquen el dominio del problema.

Para ello es recomendable seguir, entre otras, la técnica de Event Storming. Con esta técnica podemos definir qué comportamiento existe en nuestro dominio, qué elementos intervienen y cómo se relacionan entre ellos. Toda esta información posteriormente ayudará a determinar los building blocks de nuestro proyecto software.

Continuando con el ejemplo planteado, en la imagen siguiente se puede ver un modelado de cambio de estado de operaciones.

Diagrama de flujo completo del sistema de operaciones

De esta imagen y su análisis, y siguiendo la nomenclatura de Event Storming, se puede obtener suficiente información del dominio como para realizar una primera implementación. Pero eso lo dejaremos para el siguiente post.

En el próximo capítulo de esta serie, se llevará a cabo el diseño táctico y la implementación de la solución.

¿Quieres dar el primer paso en digitalización? Llámanos sin compromiso y diseñamos tu Mínimo Producto Viable

Digitalizar en plano secuencia

Digitalizar en plano secuencia

Digitalizar en plano secuencia

Transformación digital

No debe haber miedo en afirmar, simplemente por ser en apariencia un concepto opuesto al frío tecnológico, que la digitalización trata de emociones.

Tras cada decisión de optimización, tras cada idea de mejora o tras cada sueño de evolución, hay una persona o un grupo de personas que están dispuestas a invertir su tiempo y su dinero en alcanzar sus objetivos a través de tecnología. Dispuesta a confiar en ti, empresa tecnológica. Y eso es emoción.

Partiendo de esta premisa tan clara y meridiana, inferimos nuestro objetivo más conciso: aportar retorno de inversión, expresión que aterrizada a una escala emocional, se traduce en aportar bienestar y, por qué no, alegría.

Hacia un lugar más exacto

Cuando hablamos de abordar un proyecto de digitalización, hablamos de formar equipo. Implicar a nuestros clientes en el desarrollo de sus ideas es parte del juego, y la única forma que conocemos de que todo llegue a buen puerto. La digitalización coral, como ocurre en un plano secuencia, permite aportar un dinamismo especial, y ayuda a descubrir de forma progresiva el escenario y el contexto al que sus protagonistas se enfrentan. En definitiva, digitalizar en plano secuencia.

En "Senderos de Gloria", el general pasa revista a sus tropas

En «Senderos de Gloria«, el general pasa revista a sus tropas paseando por la mismísima trinchera. Mientras toma el pulso a la realidad de sus hombres, se suceden las explosiones. El espectador, el analista, empieza a darse cuenta de qué hay enfrente (objetivos), cuál es la amenaza (oportunidad) y cuál es el estado actual de las cosas.

Un paso para poder dar el siguiente

Son los conceptos de continuidad e inclusión los que hacen del plano secuencia algo realmente especial. En muchas ocasiones, el éxito de un proceso de digitalización va precisamente de eso. Al final de la escena, tenemos una idea de conjunto clara, y sabemos con seguridad qué ha pasado. Pero llegar a este punto con éxito significa haber ido paso a paso, quitando capas de la cebolla mecánica.

Matthew McConaughey afronta una acción maravillosamente interminable en «True Detective» con una estrategia en mente, pero sin conocer los problemas reales y específicos a los que se enfrentará. Anda por exteriores, se agazapa, penetra en habitaciones, protege y ataca, siempre en alerta y bien planificado, pero sin saber con exactitud qué hay al otro lado. Y cuando el problema llega, aplica la solución concreta, lo que la acerca a la más correcta. Matt itera y avanza.

Un equilibrio prácticamente quirúrgico

Mi plano secuencia digital es un Mínimo Producto Viable, una fase corta, ambiciosa y con un objetivo claro que resulta espectacular (aporta valor), que convierte al espectador en actor (hace equipo), y que pone las cartas sobre la mesa para abordar soluciones (orienta a objetivo). Ahora bien, ¿es complicado? Veamos.

Un plano secuencia sale bien teniendo claro cuál es el objetivo y tomando conciencia de qué papel ha de jugar cada actor

¿Cuántos ángulos, travellings y cambios de ángulo y altura acompañan a Michael Keaton en «Birdman«? La coreografía es tan efectiva y eficiente como difícil de coordinar. ¿Un fallo puede provocar una repetición de la secuencia? Quizás. ¿Es costoso? Claro, pero, ¿no lo es más aún un fracaso en taquilla? Un plano secuencia sale bien teniendo claro cuál es el objetivo y tomando conciencia de qué papel ha de jugar cada actor. Digitalizar en plano secuencia.

Uno de los primeros planos secuencia del cine pertenece a Murnau, de su película «Amanecer», de 1927. Todo está ahí, sólo hay que querer, atreverse y saber utilizarlo.

¿Quieres dar el primer paso en digitalización? Llámanos sin compromiso y diseñamos tu Mínimo Producto Viable

El papel de la protección de datos en tiempos de teletrabajo

El papel de la protección de datos en tiempos de teletrabajo

El papel de la protección de datos en tiempos de teletrabajo

Privacidad | Protección de datos | Seguridad | Teletrabajo

El teletrabajo y la protección de datos en los tiempos que corren deben ir de la mano. Desde la incorporación masiva del teletrabajo en nuestras vidas, se ha configurado un nuevo escenario de riesgos en materia de seguridad y protección de datos personales que ha de gestionarse de una manera adecuada para garantizar la integridad y privacidad de los distintos actores de acuerdo a las leyes vigentes al respecto.

Para desempeñar el trabajo diario en cualquier puesto de trabajo, independientemente de su localización, se necesita acceder a datos personales que deben estar protegidos. Estos datos van desde nombres, números de teléfono o direcciones, hasta cuentas bancarias o información fiscal, y engloban tanto al personal de la empresa como a clientes y proveedores.

En absolutamente todos los casos descritos, deben aplicarse una serie de medidas que reglen y asienten el papel de la protección de datos en el teletrabajo.

Postura de la AEPD y primeras medidas a adoptar

Numerosas son las medidas que se pueden aplicar para mantener la seguridad y protección de los equipos informáticos y dispositivos y, consecuentemente, de los datos que puedan albergar. La Agencia Española de Protección de Datos es uno de los primeros organismos que se ha pronunciado con respecto a este tema, exponiendo a través de recomendaciones unas series de medidas a tener en cuenta.

Estas recomendaciones aparecen divididas en medidas y buenas prácticas dirigidas tanto a los responsables del tratamiento de los datos, como al personal que participa en las operaciones sobre dicho tratamiento y manipulación.

A modo de resumen, con respecto a las recomendaciones dirigidas a responsables del tratamiento, la AEPD aconseja definir una política de protección de la información para situaciones de movilidad que recoja las formas de acceso remoto que se permiten, o las responsabilidades y obligaciones que asumen las personas empleadas.

Otras recomendaciones destacables por la AEPD en este sentido son la adopción de soluciones y la elección de prestadores de servicios confiables y con garantías, que eviten en todo momento la exposición de los datos personales y aseguren la restricción del acceso a la información.

Medidas que se pueden aplicar para mantener la seguridad y protección de los equipos informáticos

Configuración periódica de equipos y dispositivos digitales

Configurar periódicamente los equipos y dispositivos utilizados asegurando su actualización, o monitorizar los accesos a la red corporativa y gestionar racionalmente la protección de datos y la seguridad, cierran las seis recomendaciones dirigidas a los responsables del tratamiento de datos en las empresas.

Con respecto a las recomendaciones dirigidas al personal que participa en las operaciones de tratamiento, la AEPD recomienda:

  • Respetar la política de protección de la información en situaciones de movilidad definida por el responsable.
  • Proteger el dispositivo utilizado en movilidad y el acceso al mismo, utilizando contraseñas de acceso robustas o evitando la conexión de los dispositivos a la red corporativa desde lugares públicos.
  • Garantizar la protección de la información que se está manejando no dejando a la vista ningún soporte de información en el lugar donde se desarrolle el teletrabajo, bloqueando las sesiones de los dispositivos cuando estos estén desatendidos o evitando exponer la pantalla a la mirada de terceros.
  • Guardar la información en los espacios de red habilitados haciendo uso de los recursos de almacenamiento compartidos o en la nube proporcionados por la organización.
  • Comunicar, si hay sospecha de que la información ha podido verse comprometida y con carácter inmediato, la brecha de seguridad a la persona responsable en cuestión.

La postura del CCN sobre videoconferencias y reuniones virtuales

Otro de los organismos que también se ha pronunciado sobre la privacidad de los datos en el teletrabajo es el Centro Criptológico Nacional. El CCN recopila pormenorizadamente una serie de recomendaciones que van desde la protección y seguridad de los datos en videoconferencias y reuniones virtuales, hasta las soluciones técnicas de acceso remoto seguro, destacando un informe recogido en dos anexos en los que se detalla cada una de las dos soluciones propuestas: la nube o sistemas locales (on-premise).

Desde el prisma que nos ocupa, considerando la situación actual y entendiendo la importancia que subyace tras la protección de datos, todos estos mecanismos deberán ayudarnos a desempeñar nuestro trabajo en remoto de una forma segura, garantizando en todo momento la protección y la intimidad de todos los actores implicados.

En Sixphere trabajamos de manera remota desde su fundación, apostando por el teletrabajo como medida principal de conciliación entre la vida laboral y personal. Y, por supuesto, somos conscientes del importante papel de la protección de datos en el teletrabajo. A este respecto, son numerosas las medidas implantadas y constantes las adaptaciones realizadas sobre ellas, basadas en las necesidades de nuestro equipo, nuestros clientes y nuestros proveedores y, por supuesto, alineadas con las leyes vigentes.

Conectores personalizados Power BI, un modo profesional de analítica empresarial

Conectores personalizados Power BI, un modo profesional de analítica empresarial

Conectores personalizados Power BI, un modo profesional de analítica empresarial

Analítica | Datos | Power BI

A estas alturas, (casi) todo el mundo conoce Power BI. Su flujo de funcionamiento a alto nivel es sencillo: conexión contra un origen de datos soportado; carga de los datos extraídos sobre la plataforma Power BI; y transformación y manipulación de los datos cargados para la obtención de información. Y es precisamente en su capacidad de conexión con múltiples orígenes de datos donde reside una de las grandes fortalezas de la herramienta.

Con mayor o menor pericia, la mayoría de analistas o responsables de negocio alguna vez han conectado como origen una hoja Excel, han cargado sus datos y han jugado con ellos para construir informes, gráficos y pequeños cuadros de mando. ¿Dispones de bases de datos MySQL Server? ¿Quizás Microsoft Access? ¿Incluso PDFs? Power BI ofrece de manera nativa conectores para extraer y consumir sus datos en pocos clicks

Pero… ¿qué ocurre si nuestro origen de datos (un sistema corporativo interno, un ERP o cualquier otra aplicación implantada en nuestro negocio) no está soportado por Power BI? Keep Calm & Custom Connectors. Conectores Power BI para analítica profesional a tu alcance.

Power BI proporciona multitud de conectores contra distintas fuentes de datos

Conectores personalizados Power BI, una estrategia

La implementación de Custom Connectors sobre Power BI se lleva a cabo a través de la SDK Power Query, un motor de preparación y transformación de datos. No obstante, más allá de conocimientos sobre el lenguaje de programación, el desarrollo de un conector personalizado requiere de una estrategia que fije los objetivos que se desean alcanzar. Los pasos de dicha estrategia bien pueden ser los siguientes:

  1. Determinar qué origen de datos queremos integrar y, sobre todo, qué datos se quieren obtener de él y a qué necesidad de análisis responden.
  2. Estudiar los posibles modos de comunicación o APIs de los que dispone el origen de datos que queremos integrar.
  3. Analizar el modo de autenticación requerido contra el origen de datos, lo que determinará el nivel de seguridad y conectividad con éste.
  4. Especificar los parámetros que el usuario deberá introducir para recuperar los datos que desee en base a la interfaz de comunicación ofrecida por el origen de datos.
  5. Analizar la estructura de los datos devueltos por la interfaz de comunicación del origen de datos con el fin de estructurarlos adecuadamente para su carga final en Power BI.
  6. Diseñar las transformaciones previas que se han de llevar a cabo para ofrecer al usuario final un conjunto de datos adecuado a su perfil y necesidades.

Una vez marcada la estrategia, ¡manos a la obra!

Conectores Power BI para analítica de datos ¿Necesitas uno para tus sistemas?

La autenticación, un asunto vital

A la hora de implementar un conector personalizado, la autenticación es sin duda uno de los puntos centrales y más relevantes. Determinará, por un lado, de qué forma el conector deberá interactuar con el origen para la obtención de datos. Por otro lado, condicionará qué información y credenciales deberá proporcionar el usuario final y, por ende, de qué permisos de acceso a los datos obtenidos dispondrá.

Como es de suponer, el mecanismo de autenticación a implementar dependerá del origen de datos sobre el cual se quiere llevar a cabo la conexión. Afortunadamente, Power Query pone a disposición del desarrollador múltiples posibilidades, entre las que destacan la autenticación básica con usuario y contraseña y la autenticación vía OAuth2.0. De esta forma, se cubre un amplísimo rango de sistemas y aplicaciones.

Power BI mecanismos de autenticación básicos y OAuth2.0.

En el caso de implementar autenticación básica, Power BI solicitará al usuario sus credenciales de acceso a la plataforma origen para obtener los datos requeridos. En el caso de optar por autenticación OAuth, habrán de implementarse los métodos oportunos en base a la interfaz dispuesta por dicha plataforma origen.

Más fácil con transformaciones y árboles de navegación

Más allá de la autenticación, el otro punto clave a la hora de implementar un conector personalizado es el tratamiento previo sobre los datos extraídos del sistema origen que se ha de realizar para su carga final en Power BI. Este punto vendrá determinado tanto por el formato de los datos retornados por el sistema origen como por la necesidad y perfil del usuario final.

Power Query, a través de su lenguaje de fórmulas M, permite llevar a cabo transformaciones, combinaciones o filtrados de datos que, aplicados en el ámbito del conector personalizado, ofrecen al usuario los datos «precocinados».

No obstante, más allá de dicho procesamiento, Power Query aporta también los denominados árboles de navegación, que facilitan de forma extraordinaria al usuario final la visualización y elección de los conjuntos de datos que desee integrar en Power BI para su tratamiento.

Tabla de navegación Power BI para conjuntos de datos

A modo de conclusión, Power BI aporta mecanismos de extensión suficientes para la integración en los flujos de analítica empresarial de datos procedentes de cualquier sistema o plataforma interna o corporativa, permitiendo así crear un único Data Center personalizado y en tiempo real.

La importancia de llamarse PYME innovadora

La importancia de llamarse PYME innovadora

La importancia de llamarse PYME innovadora

Innovación | PYME | Sixphere

Tenemos el honor y la alegría de poder decir, después de varios años convencidos de ello, que somos oficialmente, Ministerio de Ciencia e Innovación mediante, una PYME innovadora en toda regla. Para nosotros, como empresa proveedora de tecnología, dicho reconocimiento supone muchísimo más que una imagen PNG que añadir a nuestras presentaciones comerciales. Nos refuerza en la idea de que es posible digitalizar innovando y, sobre todo, de que es factible llevar la innovación a nuestros clientes.

En Sixphere Somos Pyme innovadora

Este sello es la guinda de un pastel que comenzó a cocinarse allá por 2017, con la idea de crear, analizar y desarrollar, dentro del marco Industria 4.0, un ecosistema de gestión integral y en tiempo real de la producción basado en IoT, tecnologías de proximidad e IA.

Ya a finales del año pasado alcanzamos un hito, a nuestro modo de ver, espectacular para una PYME TIC como la nuestra: que AENOR certificase nuestro proyecto como I+D, un proceso realmente complejo y exigente (y en el que contamos con la ayuda de CTA) que ha culminado en la expedición de un informe motivado a tal efecto por el propio Ministerio, la llave final para alcanzar este pequeño tesoro.

La innovación como motor de transición digital

En Sixphere tenemos clara nuestra postura con respecto a la innovación, sabemos qué significa y estamos convencidos de su importancia y utilidad como motor de cambio y como generador de valor añadido. Para nosotros, en ningún caso es lo mismo explotar el negocio de la innovación que explorar la generación de negocio a través de la innovación. Nos apuntamos a la segunda filosofía.

El camino que nos ha llevado a ser PYME innovadora ha sido demostrar que diseñamos, ejecutamos, gestionamos y, sobre todo, apostamos por proyectos de innovación. Dicho de otro modo, hacemos de la innovación nuestro leitmotiv, nuestra marca diferenciadora, nuestro día a día. Nuestra regla fuera de la excepción.

¿Dónde encajan en este plan de empresa las ayudas, programas y subvenciones a la innovación? Para nosotros, por supuesto son una oportunidad única de impulsar ideas que complementan nuestros servicios y, sobre todo, que suponen un reto de mercado real. Hay mercado si existe la necesidad, y nuestro trabajo en esencia consiste en cubrir ese GAP con tecnología. Nuestra participación en BlockIS y BlockStart nos ha permitido demostrar (y demostrarnos) que la innovación ha de redundar en resultados tangibles y de valor. Y así la seguiremos enfocando.

La importancia de llamarse PYME innovadora

El carácter innovador de una empresa no nace y muere en un programa o en una ayuda, funciona cuando forma parte de su ADN. En este sentido, en Sixphere hacemos innovación como una forma de aportar valor. En una empresa como la nuestra, la innovación tiene peso específico cuando somos capaces de transmitir su método, su valor y su implantación a nuestros clientes.

Seguiremos desarrollando tecnología como herramienta para el cambio y la mejora continua. Seguiremos enfrentándonos a problemas complejos de la mejor forma posible: aportando imaginación, honestidad y resultados. ¡Larga vida a la innovación!

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data | Machine Learning

El tiempo de fabricación de un elemento en una línea de producción es, debido a la naturaleza propia del proceso, un valor que no debe variar demasiado en el tiempo. Sólo debe verse afectado de manera significativa por la aparición de alguna anomalía. Esto lo convierte en un dato idóneo para ser estudiado y analizado como una serie temporal.

Se llevará a cabo un análisis de los tiempos de fabricación de un elemento haciendo uso de modelos de autorregresión. Se empleará concretamente la metodología Box-Jenkins, considerando los siguientes bloques:

  • Estudio de la estructura de la serie, para determinar si se trata de una serie estacionaria, además de chequear la existencia de outliers.
  • Búsqueda de los modelos y parámetros que mejor ajusten la serie, estudiando el ajuste de los modelos ARMA o ARIMA según corresponda y estimando los valores más apropiados para sus parámetros.
  • Validación del modelo seleccionado, llevando a cabo un análisis sobre el ruido blanco explicado por el modelo.
  • Predicción de valores futuros, haciendo uso del modelo seleccionado, así como la detección de valores outliers.

Estudio de la estructura de la serie

La serie está compuesta por un conjunto de observaciones ordenadas de la variable timesheet_incurred, que representa el tiempo de fabricación, en segundos, que se ha consumido en la ejecución de una determinada operación sobre un elemento.

Con una simple descriptiva se observa una gran amplitud en la distribución de los valores, sobre todo teniendo en cuenta la naturaleza de los mismos.

Big Data, anomalías y predicción

En los gráficos de distribución se observa cláramente cómo la variable tiene valores muy dispersos, pero al mismo tiempo concentrados alrededor de los intervalos (0, 1000) y (5000, 7000).

Big Data, anomalías y predicción

En la gráfica de valores se aprecia una clara diferencia en la distribución de los mismos a partir de la observación 109. Esto puede ser debido a un cambio en el proceso de producción que haya afectado cláramente al tiempo de fabricación del elemento.

En la gráfica de valores se observa una clara diferencia en la distribución de los mismos a partir de la observación 109. Esto puede ser debido a un cambio en el proceso de producción que haya afectado cláramente al tiempo de fabricación del elemento.

¿Quieres profundizar más en este experimento de
Big Data, anomalías y predicción?

O visita el caso técnico completo con recursos de código fuente y resultados obtenidos.
Big Data, anomalías y predicción.

Búsqueda de los modelos y parámetros

Existen métodos para la estimación de los parámetros del modelo ARIMA basados en la aplicación de algunos tests, pero quizás el más extendido y fácil de usar es el que consiste en calcular y minimizar el error cuadrático medio obtenido de diferentes combinaciones de los parámetros p, q y d del modelo.

En nuestro ejemplo, probando diferentes valores, se obtiene que la combinación con menor MSE es (4,0,20).

Big Data, anomalías y predicción

Validación del modelo

Para comprobar la validez del modelo se lleva a cabo el análisis de los residuos para determinar si se trata de ruido blanco.

En primer lugar se aplica un test de normalidad sobre los residuos, del cual se desprende que se rechaza la hipótesis de que sigan una distribución normal. Esto es indicativo de que no todo el comportamiento de la serie queda explicado por el modelo. Esto puede ser debido a que la serie sufre muchas anomalías, aunque existe correlación entre los valores.

En segundo lugar, se aplica el test de Durbin-Watson para contrastar la existencia de correlación en los residuos del modelo. El resultado es un valor muy cercano a 2, lo cual indica la NO existencia de correlación en los residuos, por lo que damos el modelo como válido.

Predicción de valores futuros

Haciendo uso del modelo seleccionado se pueden hacer predicciones para los valores próximos de la serie, tal como se observa en el siguiente gráfico.

Big Data, anomalías y predicción

Pero otro beneficio importante de este tipo de análisis sobre una serie temporal es que se puede usar para la detección de anomalías. Haciendo una simple normalización de la serie, se observan outliers dependiendo de la desviación estándar móvil.

Sin embargo, estudiando la desviación entre el valor observado y el valor predicho por el modelo, se pueden detectar anomalías de una manera más sensible que el método anterior. El siguiente gráfico señala anomalías detectadas en aquellos valores cuya desviación con respecto a lo estimado supera la desviación estándar móvil para dicho punto.

Big Data, anomalías y predicción

¿Quieres profundizar más en este experimento?

O visita el caso técnico completo con recursos de código fuente y resultados obtenidos.
Big Data, anomalías y predicción.