Seleccionar página
Arquitecturas limpias y DDD, un recorrido práctico. Parte 2

Arquitecturas limpias y DDD, un recorrido práctico. Parte 2

Arquitecturas limpias y DDD, un recorrido práctico. Parte 2

Arquitectura | DDD | Desarrollo

En el anterior post de esta serie sobre arquitecturas limpias y DDD, se introdujeron los conceptos básicos sobre dicha arquitectura y se discutió sobre la filosofía de diseño separada en capas, sus elementos y características fundamentales y por supuesto sobre las ventajas de su uso.

Llegados a este punto, cabe preguntarse cómo pasar a la acción. Dicho de otro modo, planteado un problema funcional o un caso de uso a implementar, ¿cómo aplicar DDD? A lo largo de este y de los siguientes posts de la serie, se tratarán los siguientes puntos al respecto:

  • Planteamiento de un problema funcional real.
  • Aplicación y uso de lenguaje ubicuo.
  • Diseño estratégico de la solución.
  • Diseño táctico e implementación.
Diagrama de arquitectura hexagonal

Problema: control de operaciones en manufactura

Tomemos como ejemplo un problema de digitalización característico de una empresa manufacturera y su flujo de producción, donde los operarios deben realizar ciertas tareas para acabar una orden de trabajo que, en última instancia, permite fabricar un producto.

La forma de trabajo habitual de los operarios es la siguiente:

  • De cada orden de trabajo que les facilitan, toman una o varias de las operaciones que deben realizar, según sus conocimientos y certificaciones, y comienzan a trabajar en ellas.
  • Marcan la tarea como asignada al operario y en progreso, para que nadie la tome de nuevo.
  • Una vez acabada la tarea, la marcan como finalizada y vuelven al principio del proceso.

Cabe destacar, como restricción, que las operaciones sólo pueden encontrarse en un estado a la vez, es decir, o están por hacer, o están en proceso o están finalizadas. De manera resumida, su flujo es el siguiente:

Flujo simple de gestión de operaciones

¡Veamos como podemos implementar este problema!

Nuestro aliado el lenguaje ubicuo. Conceptos de negocio

The use of language on a project is subtle but all-important […] to create a supple, knowledge-rich design calls for a versatile, shared team language, and a lively experimentation with language that seldom happens on software projects.

 

Eric Evans – Domain-driven design. pp.23 – 24.

Una de las partes más importantes de DDD es el lenguaje. De las sesiones del equipo (equipo de desarrollo y expertos del dominio, se entiende) debe emerger un lenguaje consensuado entre todos que explique el modelo de forma unívoca. Para ello, hay que prestar especial atención a lo que nos comunican los propios expertos del dominio.

Para este ejemplo en particular, tomaremos la explicación anterior como la información que tenemos del dominio (imaginemos que ha sido un experto quien nos la ha facilitado) y extraeremos, de manera somera, los conceptos y entidades más importantes:

  • Operario. Usuario técnico que ejecuta las operaciones. Cada operario tiene habilidades (skills) que les permitirá o no ejecutar una operación.
  • Orden. Una orden de trabajo es el conjunto de operaciones que uno o varios operarios deben llevar a cabo para producir un bien o servicio, dado unos recursos consumibles.
  • Operación. Las operaciones son la unidad mínima de trabajo que un operario debe ejecutar para conseguir acabar una orden de trabajo. Todas las operaciones pertenecen a una orden concreta, deben ejecutarse por operarios con los skills necesarios y son cambiadas de estado durante el flujo de trabajo del operario. Pueden encontrarse en 3 estados diferentes: TODO, DOING y DONE.

Diseño estratégico: la hora de la verdad

Durante la etapa de diseño estratégico el equipo de desarrollo, junto con los expertos del dominio, deben definir los bounded contexts, el lenguaje ubicuo y los context maps que expliquen el dominio del problema.

Para ello es recomendable seguir, entre otras, la técnica de Event Storming. Con esta técnica podemos definir qué comportamiento existe en nuestro dominio, qué elementos intervienen y cómo se relacionan entre ellos. Toda esta información posteriormente ayudará a determinar los building blocks de nuestro proyecto software.

Continuando con el ejemplo planteado, en la imagen siguiente se puede ver un modelado de cambio de estado de operaciones.

Diagrama de flujo completo del sistema de operaciones

De esta imagen y su análisis, y siguiendo la nomenclatura de Event Storming, se puede obtener suficiente información del dominio como para realizar una primera implementación. Pero eso lo dejaremos para el siguiente post.

En el próximo capítulo de esta serie, se llevará a cabo el diseño táctico y la implementación de la solución.

¿Quieres dar el primer paso en digitalización? Llámanos sin compromiso y diseñamos tu Mínimo Producto Viable

Arquitecturas limpias y DDD, un recorrido práctico. Parte 1

Arquitecturas limpias y DDD, un recorrido práctico. Parte 1

Arquitecturas limpias y DDD, un recorrido práctico. Parte 1

Arquitectura | DDD | Desarrollo

Cuando se aborda un nuevo proyecto de software en el que intervienen múltiples stakeholders, se implican diversos componentes o sistemas terceros, o trata de implementar grandes flujos de negocio, es decir, un proyecto con un alto nivel de complejidad, se afronta el mismo problema de siempre: ¿Qué estrategia de diseño tomar? ¿Qué lenguaje de negocio utilizar? ¿Qué patrones de arquitectura tecnológica aplicar?

Las respuestas a estas preguntas deben basarse siempre en el análisis de aspectos tales como la mantenibilidad que se requiere, el nivel de integración, la escalabilidad o simple y llanamente el coste de implementación. No obstante, entre estos aspectos suele olvidarse uno clave: el lenguaje, que no es otra cosa que el mecanismo o punto de unión que debe permitir la conexión entre el mundo del negocio empresarial a digitalizar y el producto digital final. En otras palabras, el aspecto que marcará el éxito.

¿En qué punto entra en juego el concepto de arquitecturas limpias y DDD (Domain-Driven Design)? ¿En qué ayuda a trabajar y optimizar ese aspecto clave? Para empezar, en este artículo se abordarán conceptos básicos de arquitectura.

Arquitecturas limpias y el hexágono mágico

La arquitectura hexagonal se basa en los siguientes principios y objetivos fundamentales:

  • Separar de forma explícita y contundente las capas de usuario, negocio y servidor.
  • Derivar y empujar las dependencias desde las capas de usuario y servidor hacia la lógica de negocio.
  • Aislar e independizar al máximo cada una de las capas, suprimiendo acoplamientos indebidos y dotando a cada componente de una responsabilidad muy específica.
Diagrama de arquitectura hexagonal

Desde un punto de vista práctico, este principio de arquitectura se basa en una idea tan antigua como eficaz: divide y vencerás. Separar o partir el problema en trozos independientes facilitará no sólo la comprensión del problema global, sino que hara más sencilla la implementación de la solución y su posterior mantenimiento. Por otro lado, prepara el terreno para alcanzar una mayor extensibilidad y escalabilidad.

¿Te interesa profundizar aún más en este principio de arquitectura? Este artículo te será de gran ayuda. Exploremos de forma breve y concisa cada uno de los componentes principales de la arquitectura hexagonal.

Capa de presentación

Es sencillamente la interfaz de usuario final. A grandes rasgos, se encarga de mostrar la información al usuario, interpretar sus órdenes y desencadenar las acciones de negocio pertinentes a través de su comunicación al resto de capas intervinientes.

Cabe destacar en este punto que, en ocasiones y con mucha asiduidad, se identifica al usuario o actor externo con un ser humano. Nada más lejos de la realidad. El usuario final puede ser cualquier otra entidad: una máquina, un dispositivo IoT, otro sistema informático, etc. Es un punto a tener muy en cuenta de cara al diseño de esta capa.

Capa de aplicación

Define las tareas que debe realizar el software y dirige los objetos de dominio expresivo para resolver los problemas. Las tareas de las que se encarga esta capa son significativas para el negocio o necesarias para la interacción con las capas de aplicación de otros sistemas.

Esta capa se mantiene «delgada». No contiene reglas de negocio o conocimiento, sino que sólo coordina las tareas y delega el trabajo a las colaboraciones de los objetos de dominio en la capa siguiente. No tiene estado que refleje la situación del negocio, pero puede tener estado que refleje el progreso de una tarea para el usuario o el programa.

Capa de dominio

O también llamada capa de modelo. Es el componente de la arquitectura responsable de representar los conceptos del negocio, la información sobre la situación del negocio y las reglas del negocio. El estado que refleja la situación de la empresa a través de su sistema digital se controla y utiliza aquí, aunque los detalles técnicos de su almacenamiento se delegan en la infraestructura.

En definitiva, es el componente que implementa los flujos de trabajo o producción de la compañía a través de un lenguaje muy próximo al empresarial.

Capa de infraestructura

Esta capa proporciona las capacidades técnicas genéricas que soportan las capas superiores: envío de mensajes para la aplicación, persistencia para el dominio, dibujo de widgets para la UI, etc. Asimismo, es la responsable de la conexión con los sistemas/agentes externos a nuestro dominio.

La capa de infraestructura también puede soportar el patrón de interacciones entre las cuatro capas a través de un marco arquitectónico y es también llamada capa de anticorrupción en cuanto a que evita que las capas de negocio se «contaminen» con elementos en realidad ajenos a éste.

¿Quieres más información? Echa un vistazo a esta entrada.

En el próximo capítulo de esta serie, se planteará un problema real y el diseño de la solución aplicando éste y otros principios.

¿Quieres dar el primer paso en digitalización? Llámanos sin compromiso y diseñamos tu Mínimo Producto Viable

Digitalizar en plano secuencia

Digitalizar en plano secuencia

Digitalizar en plano secuencia

Transformación digital

No debe haber miedo en afirmar, simplemente por ser en apariencia un concepto opuesto al frío tecnológico, que la digitalización trata de emociones.

Tras cada decisión de optimización, tras cada idea de mejora o tras cada sueño de evolución, hay una persona o un grupo de personas que están dispuestas a invertir su tiempo y su dinero en alcanzar sus objetivos a través de tecnología. Dispuesta a confiar en ti, empresa tecnológica. Y eso es emoción.

Partiendo de esta premisa tan clara y meridiana, inferimos nuestro objetivo más conciso: aportar retorno de inversión, expresión que aterrizada a una escala emocional, se traduce en aportar bienestar y, por qué no, alegría.

Hacia un lugar más exacto

Cuando hablamos de abordar un proyecto de digitalización, hablamos de formar equipo. Implicar a nuestros clientes en el desarrollo de sus ideas es parte del juego, y la única forma que conocemos de que todo llegue a buen puerto. La digitalización coral, como ocurre en un plano secuencia, permite aportar un dinamismo especial, y ayuda a descubrir de forma progresiva el escenario y el contexto al que sus protagonistas se enfrentan. En definitiva, digitalizar en plano secuencia.

En "Senderos de Gloria", el general pasa revista a sus tropas

En «Senderos de Gloria«, el general pasa revista a sus tropas paseando por la mismísima trinchera. Mientras toma el pulso a la realidad de sus hombres, se suceden las explosiones. El espectador, el analista, empieza a darse cuenta de qué hay enfrente (objetivos), cuál es la amenaza (oportunidad) y cuál es el estado actual de las cosas.

Un paso para poder dar el siguiente

Son los conceptos de continuidad e inclusión los que hacen del plano secuencia algo realmente especial. En muchas ocasiones, el éxito de un proceso de digitalización va precisamente de eso. Al final de la escena, tenemos una idea de conjunto clara, y sabemos con seguridad qué ha pasado. Pero llegar a este punto con éxito significa haber ido paso a paso, quitando capas de la cebolla mecánica.

Matthew McConaughey afronta una acción maravillosamente interminable en «True Detective» con una estrategia en mente, pero sin conocer los problemas reales y específicos a los que se enfrentará. Anda por exteriores, se agazapa, penetra en habitaciones, protege y ataca, siempre en alerta y bien planificado, pero sin saber con exactitud qué hay al otro lado. Y cuando el problema llega, aplica la solución concreta, lo que la acerca a la más correcta. Matt itera y avanza.

Un equilibrio prácticamente quirúrgico

Mi plano secuencia digital es un Mínimo Producto Viable, una fase corta, ambiciosa y con un objetivo claro que resulta espectacular (aporta valor), que convierte al espectador en actor (hace equipo), y que pone las cartas sobre la mesa para abordar soluciones (orienta a objetivo). Ahora bien, ¿es complicado? Veamos.

Un plano secuencia sale bien teniendo claro cuál es el objetivo y tomando conciencia de qué papel ha de jugar cada actor

¿Cuántos ángulos, travellings y cambios de ángulo y altura acompañan a Michael Keaton en «Birdman«? La coreografía es tan efectiva y eficiente como difícil de coordinar. ¿Un fallo puede provocar una repetición de la secuencia? Quizás. ¿Es costoso? Claro, pero, ¿no lo es más aún un fracaso en taquilla? Un plano secuencia sale bien teniendo claro cuál es el objetivo y tomando conciencia de qué papel ha de jugar cada actor. Digitalizar en plano secuencia.

Uno de los primeros planos secuencia del cine pertenece a Murnau, de su película «Amanecer», de 1927. Todo está ahí, sólo hay que querer, atreverse y saber utilizarlo.

¿Quieres dar el primer paso en digitalización? Llámanos sin compromiso y diseñamos tu Mínimo Producto Viable

El papel de la protección de datos en tiempos de teletrabajo

El papel de la protección de datos en tiempos de teletrabajo

El papel de la protección de datos en tiempos de teletrabajo

Privacidad | Protección de datos | Seguridad | Teletrabajo

El teletrabajo y la protección de datos en los tiempos que corren deben ir de la mano. Desde la incorporación masiva del teletrabajo en nuestras vidas, se ha configurado un nuevo escenario de riesgos en materia de seguridad y protección de datos personales que ha de gestionarse de una manera adecuada para garantizar la integridad y privacidad de los distintos actores de acuerdo a las leyes vigentes al respecto.

Para desempeñar el trabajo diario en cualquier puesto de trabajo, independientemente de su localización, se necesita acceder a datos personales que deben estar protegidos. Estos datos van desde nombres, números de teléfono o direcciones, hasta cuentas bancarias o información fiscal, y engloban tanto al personal de la empresa como a clientes y proveedores.

En absolutamente todos los casos descritos, deben aplicarse una serie de medidas que reglen y asienten el papel de la protección de datos en el teletrabajo.

Postura de la AEPD y primeras medidas a adoptar

Numerosas son las medidas que se pueden aplicar para mantener la seguridad y protección de los equipos informáticos y dispositivos y, consecuentemente, de los datos que puedan albergar. La Agencia Española de Protección de Datos es uno de los primeros organismos que se ha pronunciado con respecto a este tema, exponiendo a través de recomendaciones unas series de medidas a tener en cuenta.

Estas recomendaciones aparecen divididas en medidas y buenas prácticas dirigidas tanto a los responsables del tratamiento de los datos, como al personal que participa en las operaciones sobre dicho tratamiento y manipulación.

A modo de resumen, con respecto a las recomendaciones dirigidas a responsables del tratamiento, la AEPD aconseja definir una política de protección de la información para situaciones de movilidad que recoja las formas de acceso remoto que se permiten, o las responsabilidades y obligaciones que asumen las personas empleadas.

Otras recomendaciones destacables por la AEPD en este sentido son la adopción de soluciones y la elección de prestadores de servicios confiables y con garantías, que eviten en todo momento la exposición de los datos personales y aseguren la restricción del acceso a la información.

Medidas que se pueden aplicar para mantener la seguridad y protección de los equipos informáticos

Configuración periódica de equipos y dispositivos digitales

Configurar periódicamente los equipos y dispositivos utilizados asegurando su actualización, o monitorizar los accesos a la red corporativa y gestionar racionalmente la protección de datos y la seguridad, cierran las seis recomendaciones dirigidas a los responsables del tratamiento de datos en las empresas.

Con respecto a las recomendaciones dirigidas al personal que participa en las operaciones de tratamiento, la AEPD recomienda:

  • Respetar la política de protección de la información en situaciones de movilidad definida por el responsable.
  • Proteger el dispositivo utilizado en movilidad y el acceso al mismo, utilizando contraseñas de acceso robustas o evitando la conexión de los dispositivos a la red corporativa desde lugares públicos.
  • Garantizar la protección de la información que se está manejando no dejando a la vista ningún soporte de información en el lugar donde se desarrolle el teletrabajo, bloqueando las sesiones de los dispositivos cuando estos estén desatendidos o evitando exponer la pantalla a la mirada de terceros.
  • Guardar la información en los espacios de red habilitados haciendo uso de los recursos de almacenamiento compartidos o en la nube proporcionados por la organización.
  • Comunicar, si hay sospecha de que la información ha podido verse comprometida y con carácter inmediato, la brecha de seguridad a la persona responsable en cuestión.

La postura del CCN sobre videoconferencias y reuniones virtuales

Otro de los organismos que también se ha pronunciado sobre la privacidad de los datos en el teletrabajo es el Centro Criptológico Nacional. El CCN recopila pormenorizadamente una serie de recomendaciones que van desde la protección y seguridad de los datos en videoconferencias y reuniones virtuales, hasta las soluciones técnicas de acceso remoto seguro, destacando un informe recogido en dos anexos en los que se detalla cada una de las dos soluciones propuestas: la nube o sistemas locales (on-premise).

Desde el prisma que nos ocupa, considerando la situación actual y entendiendo la importancia que subyace tras la protección de datos, todos estos mecanismos deberán ayudarnos a desempeñar nuestro trabajo en remoto de una forma segura, garantizando en todo momento la protección y la intimidad de todos los actores implicados.

En Sixphere trabajamos de manera remota desde su fundación, apostando por el teletrabajo como medida principal de conciliación entre la vida laboral y personal. Y, por supuesto, somos conscientes del importante papel de la protección de datos en el teletrabajo. A este respecto, son numerosas las medidas implantadas y constantes las adaptaciones realizadas sobre ellas, basadas en las necesidades de nuestro equipo, nuestros clientes y nuestros proveedores y, por supuesto, alineadas con las leyes vigentes.

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data | Machine Learning

El tiempo de fabricación de un elemento en una línea de producción es, debido a la naturaleza propia del proceso, un valor que no debe variar demasiado en el tiempo. Sólo debe verse afectado de manera significativa por la aparición de alguna anomalía. Esto lo convierte en un dato idóneo para ser estudiado y analizado como una serie temporal.

Se llevará a cabo un análisis de los tiempos de fabricación de un elemento haciendo uso de modelos de autorregresión. Se empleará concretamente la metodología Box-Jenkins, considerando los siguientes bloques:

  • Estudio de la estructura de la serie, para determinar si se trata de una serie estacionaria, además de chequear la existencia de outliers.
  • Búsqueda de los modelos y parámetros que mejor ajusten la serie, estudiando el ajuste de los modelos ARMA o ARIMA según corresponda y estimando los valores más apropiados para sus parámetros.
  • Validación del modelo seleccionado, llevando a cabo un análisis sobre el ruido blanco explicado por el modelo.
  • Predicción de valores futuros, haciendo uso del modelo seleccionado, así como la detección de valores outliers.

Estudio de la estructura de la serie

La serie está compuesta por un conjunto de observaciones ordenadas de la variable timesheet_incurred, que representa el tiempo de fabricación, en segundos, que se ha consumido en la ejecución de una determinada operación sobre un elemento.

Con una simple descriptiva se observa una gran amplitud en la distribución de los valores, sobre todo teniendo en cuenta la naturaleza de los mismos.

Big Data, anomalías y predicción

En los gráficos de distribución se observa cláramente cómo la variable tiene valores muy dispersos, pero al mismo tiempo concentrados alrededor de los intervalos (0, 1000) y (5000, 7000).

Big Data, anomalías y predicción

En la gráfica de valores se aprecia una clara diferencia en la distribución de los mismos a partir de la observación 109. Esto puede ser debido a un cambio en el proceso de producción que haya afectado cláramente al tiempo de fabricación del elemento.

En la gráfica de valores se observa una clara diferencia en la distribución de los mismos a partir de la observación 109. Esto puede ser debido a un cambio en el proceso de producción que haya afectado cláramente al tiempo de fabricación del elemento.

¿Quieres profundizar más en este experimento de
Big Data, anomalías y predicción?

O visita el caso técnico completo con recursos de código fuente y resultados obtenidos.
Big Data, anomalías y predicción.

Búsqueda de los modelos y parámetros

Existen métodos para la estimación de los parámetros del modelo ARIMA basados en la aplicación de algunos tests, pero quizás el más extendido y fácil de usar es el que consiste en calcular y minimizar el error cuadrático medio obtenido de diferentes combinaciones de los parámetros p, q y d del modelo.

En nuestro ejemplo, probando diferentes valores, se obtiene que la combinación con menor MSE es (4,0,20).

Big Data, anomalías y predicción

Validación del modelo

Para comprobar la validez del modelo se lleva a cabo el análisis de los residuos para determinar si se trata de ruido blanco.

En primer lugar se aplica un test de normalidad sobre los residuos, del cual se desprende que se rechaza la hipótesis de que sigan una distribución normal. Esto es indicativo de que no todo el comportamiento de la serie queda explicado por el modelo. Esto puede ser debido a que la serie sufre muchas anomalías, aunque existe correlación entre los valores.

En segundo lugar, se aplica el test de Durbin-Watson para contrastar la existencia de correlación en los residuos del modelo. El resultado es un valor muy cercano a 2, lo cual indica la NO existencia de correlación en los residuos, por lo que damos el modelo como válido.

Predicción de valores futuros

Haciendo uso del modelo seleccionado se pueden hacer predicciones para los valores próximos de la serie, tal como se observa en el siguiente gráfico.

Big Data, anomalías y predicción

Pero otro beneficio importante de este tipo de análisis sobre una serie temporal es que se puede usar para la detección de anomalías. Haciendo una simple normalización de la serie, se observan outliers dependiendo de la desviación estándar móvil.

Sin embargo, estudiando la desviación entre el valor observado y el valor predicho por el modelo, se pueden detectar anomalías de una manera más sensible que el método anterior. El siguiente gráfico señala anomalías detectadas en aquellos valores cuya desviación con respecto a lo estimado supera la desviación estándar móvil para dicho punto.

Big Data, anomalías y predicción

¿Quieres profundizar más en este experimento?

O visita el caso técnico completo con recursos de código fuente y resultados obtenidos.
Big Data, anomalías y predicción.

Tres formas de explotar datos en tu proceso de digitalización

Tres formas de explotar datos en tu proceso de digitalización

Tres formas de explotar datos en tu proceso de digitalización

Big Data | Industria 4.0 | Transformación digital

El auge de la transformación digital de procesos productivos y de negocio, así como la implantación intensiva de sistemas de información, han abierto una nueva vía de optimización y mejora: el uso de los datos.

De forma apenas perceptible, estos sistemas de información presentes en las organizaciones han acumulado datos y datos que, sin duda, es hora de aprovechar. Existe la tecnología y existen los medios para hacerlo. ¿El siguiente paso? Obtener, a partir de ellos, información que optimice la toma de decisiones en el día a día. Exploremos tres formas de explotar datos.

El dato, actor protagonista en el ciclo de digitalización

Antes de nada, cabe preguntarse qué lugar ocupa el dato en el proceso de transformación digital de las compañías. ¿Qué hay que hacer para “tener” datos? ¿Qué sistemas “crean” los datos? Ante estas dudas frecuentes, cabe preguntarse “cómo” en lugar de “qué”.

Cualquier organización, independientemente del grado de digitalización que haya alcanzado en sus procesos, posee datos: en papel, en hojas de cálculo, en ERP’s, en sistemas de gestión de RRHH… El reto a afrontar es cómo captar y modelar esos datos para convertirlos en información útil.

Generación, captación y modelado

A la hora de afrontar un proyecto de datos, pueden diferenciarse tres grandes fases: la generación y/o captación del dato; el análisis y modelado de los datos captados; y la explotación del dato con el fin de convertirlo en información de utilidad.

La complejidad y alcance de cada una de estas fases dependerá directamente de los objetivos de negocio marcados, que a su vez deberán responder y estar alineados a una estrategia empresarial.

  • Generación y/o captura: el primer paso consiste en analizar qué datos existen y están disponibles en la organización. Como resultado, dos posibles acciones: implantar sistemas que sean capaces de facilitar la generación digital de los datos requeridos, e implantar la infraestructura necesaria para realizar una captura continua de estos en tiempo real.
  • Modelado: el siguiente paso es analizar, transformar y estructurar los datos capturados en entidades de negocio con un significado dentro de los procesos de la compañía. Dicho de otro modo, el objetivo es dar forma a esos datos para convertirlos en información de utilidad.
  • Explotación: una vez dispuestos los datos estructurados y listos para su procesamiento, llega el momento de su aprovechamiento para alcanzar las mejoras marcadas. A continuación, se expondrán algunas de las alternativas existentes.

Tres formas de explotar datos, tres modos de mejorar

La eficiencia de un proceso productivo depende directamente de la calidad de las decisiones tomadas, y la eficacia de estas es inversamente proporcional al tiempo invertido en ejecutarlas. El tiempo es oro, y el dato ayuda a optimizarlo. Cada negocio es distinto, y sus objetivos estratégicos inevitablemente varían. No obstante, todos tienen algo en común: la necesidad de mejorar de forma continua.

Mejora de la toma de decisiones a través de datos

Cuadros de mando y tiempo real

El modo de explotación más extendido: el cuadro de mando. A grandes rasgos, el objetivo principal de este tipo de soluciones es mostrar al usuario final información que le ayude, con un simple golpe de vista, a identificar si los procesos, áreas o ámbitos de los que es responsable marchan como deben.

Sin embargo, no por extendida la elaboración de cuadros de mando siempre es bien aplicada. El primer paso para elaborar un buen cuadro de mando es analizar el perfil de usuario al que va destinado y alinear su contenido a la necesidad de aquel. Es necesario huir del exceso de información e “ir al grano”. Sólo de esta forma se alcanzará el objetivo principal: facilitar la toma de decisiones.

Como complemento al requisito anterior, un buen cuadro de mando debe estar alineado a un conjunto de objetivos de negocio y, por ende, ha de representar el estado y la evolución en un período de tiempo específico de KPIs concretos y suficientemente representativos para el perfil al que están destinados. Ello va a permitir asimismo construir cuadros de mando sencillos y visuales que ofrezcan una foto actual del estado de los procesos a golpe de vista.

Por último, y siempre en la medida de lo posible, un buen cuadro de mando debe ofrecer información en estricto tiempo real. Cada día más, es la capacidad de anticipación y la rapidez en la resolución de problemas la que marca la diferencia y mejora la competitividad.

¡Empieza a imaginar tu proyecto!

Te ayudamos a imaginar cómo sería tu proyecto de datos.
Gratis y sin compromiso.

Detección de anomalías en tiempo real

La explotación de datos a través de cuadros de mando proporciona un método eficaz para mostrar al usuario final el estado de sus KPIs de negocio. No obstante se trata de un método pasivo, es decir, es el usuario el que ha de sacar conclusiones a partir de su análisis. ¿Por qué no dar un paso más?

El dato puede tener iniciativa propia, puede ser proactivo y hablar por sí mismo. Sólo hace falta un poco de IA y Big Data para alcanzar modelos inteligentes de detección de anomalías.

Este tipo de sistemas se encargan, en esencia, de analizar continuamente un determinado conjunto de datos con el fin, en primer lugar, de identificar patrones comunes, continuos y persistentes en el tiempo para, en última instancia, detectar si un determinado suceso o comportamiento es anómalo.

Los modelos de detección de anomalías tienen una ventaja sustancial sobre otros modos de explotación de datos: más allá de girar en torno a KPIs predefinidos, desenmascaran posibles problemas o cuellos de botella ocultos.

Modelos inteligentes de autoaprendizaje

Siguiendo la senda de la aplicación de modelos inteligentes, pueden aún darse pasos más allá en relación al uso de datos para la implementación de sistemas que mejoren de forma sustancial los procesos de una organización.

A través del análisis de datos y su procesamiento en combinación con el desarrollo de componentes Machine Learning, pueden implementarse modelos predictivos que ofrezcan estimaciones con un alto grado de fiabilidad sobre parámetros de producción claves para la estrategia empresarial de la organización.

Asimismo, a través de retroalimentación y aprendizaje, dichos modelos pueden alcanzar un alto grado de autonomía a la hora de anticipar errores, anomalías o bloqueos en la ejecución de un proceso de negocio. E incluso, más allá, facilitar la operativa diaria a través de la asistencia automática a la toma de decisión.

En resumen, el ciclo de vida del dato y su poder como motor de mejora de procesos empresariales es tan grande como grandes sean los objetivos marcados. No siempre es necesario abordar proyectos complejos, ni siempre es suficiente con un cuadro de mando. El dato está a disposición de la estrategia, sólo hay que saber aprovecharlo.