Seleccionar página
Arquitecturas limpias y DDD, un recorrido práctico. Parte 1

Arquitecturas limpias y DDD, un recorrido práctico. Parte 1

Arquitecturas limpias y DDD, un recorrido práctico. Parte 1

Cuando se aborda un nuevo proyecto de software en el que intervienen múltiples stakeholders, se implican diversos componentes o sistemas terceros, o trata de implementar grandes flujos de negocio, es decir, un proyecto con un alto nivel de complejidad, se afronta el mismo problema de siempre: ¿Qué estrategia de diseño tomar? ¿Qué lenguaje de negocio utilizar? ¿Qué patrones de arquitectura tecnológica aplicar?

Las respuestas a estas preguntas deben basarse siempre en el análisis de aspectos tales como la mantenibilidad que se requiere, el nivel de integración, la escalabilidad o simple y llanamente el coste de implementación. No obstante, entre estos aspectos suele olvidarse uno clave: el lenguaje, que no es otra cosa que el mecanismo o punto de unión que debe permitir la conexión entre el mundo del negocio empresarial a digitalizar y el producto digital final. En otras palabras, el aspecto que marcará el éxito.

¿En qué punto entra en juego el concepto de arquitecturas limpias y DDD (Domain-Driven Design)? ¿En qué ayuda a trabajar y optimizar ese aspecto clave? Para empezar, en este artículo se abordarán conceptos básicos de arquitectura.

Arquitecturas limpias y el hexágono mágico

La arquitectura hexagonal se basa en los siguientes principios y objetivos fundamentales:

  • Separar de forma explícita y contundente las capas de usuario, negocio y servidor.
  • Derivar y empujar las dependencias desde las capas de usuario y servidor hacia la lógica de negocio.
  • Aislar e independizar al máximo cada una de las capas, suprimiendo acoplamientos indebidos y dotando a cada componente de una responsabilidad muy específica.
Diagrama de arquitectura hexagonal

Desde un punto de vista práctico, este principio de arquitectura se basa en una idea tan antigua como eficaz: divide y vencerás. Separar o partir el problema en trozos independientes facilitará no sólo la comprensión del problema global, sino que hara más sencilla la implementación de la solución y su posterior mantenimiento. Por otro lado, prepara el terreno para alcanzar una mayor extensibilidad y escalabilidad.

¿Te interesa profundizar aún más en este principio de arquitectura? Este artículo te será de gran ayuda. Exploremos de forma breve y concisa cada uno de los componentes principales de la arquitectura hexagonal.

Capa de presentación

Es sencillamente la interfaz de usuario final. A grandes rasgos, se encarga de mostrar la información al usuario, interpretar sus órdenes y desencadenar las acciones de negocio pertinentes a través de su comunicación al resto de capas intervinientes.

Cabe destacar en este punto que, en ocasiones y con mucha asiduidad, se identifica al usuario o actor externo con un ser humano. Nada más lejos de la realidad. El usuario final puede ser cualquier otra entidad: una máquina, un dispositivo IoT, otro sistema informático, etc. Es un punto a tener muy en cuenta de cara al diseño de esta capa.

Capa de aplicación

Define las tareas que debe realizar el software y dirige los objetos de dominio expresivo para resolver los problemas. Las tareas de las que se encarga esta capa son significativas para el negocio o necesarias para la interacción con las capas de aplicación de otros sistemas.

Esta capa se mantiene «delgada». No contiene reglas de negocio o conocimiento, sino que sólo coordina las tareas y delega el trabajo a las colaboraciones de los objetos de dominio en la capa siguiente. No tiene estado que refleje la situación del negocio, pero puede tener estado que refleje el progreso de una tarea para el usuario o el programa.

Capa de dominio

O también llamada capa de modelo. Es el componente de la arquitectura responsable de representar los conceptos del negocio, la información sobre la situación del negocio y las reglas del negocio. El estado que refleja la situación de la empresa a través de su sistema digital se controla y utiliza aquí, aunque los detalles técnicos de su almacenamiento se delegan en la infraestructura.

En definitiva, es el componente que implementa los flujos de trabajo o producción de la compañía a través de un lenguaje muy próximo al empresarial.

Capa de infraestructura

Esta capa proporciona las capacidades técnicas genéricas que soportan las capas superiores: envío de mensajes para la aplicación, persistencia para el dominio, dibujo de widgets para la UI, etc. Asimismo, es la responsable de la conexión con los sistemas/agentes externos a nuestro dominio.

La capa de infraestructura también puede soportar el patrón de interacciones entre las cuatro capas a través de un marco arquitectónico y es también llamada capa de anticorrupción en cuanto a que evita que las capas de negocio se «contaminen» con elementos en realidad ajenos a éste.

¿Quieres más información? Echa un vistazo a esta entrada.

En el próximo capítulo de esta serie, se planteará un problema real y el diseño de la solución aplicando éste y otros principios.

¿Quieres dar el primer paso en digitalización? Llámanos sin compromiso y diseñamos tu Mínimo Producto Viable

Digitalizar en plano secuencia

Digitalizar en plano secuencia

Digitalizar en plano secuencia

No debe haber miedo en afirmar, simplemente por ser en apariencia un concepto opuesto al frío tecnológico, que la digitalización trata de emociones.

Tras cada decisión de optimización, tras cada idea de mejora o tras cada sueño de evolución, hay una persona o un grupo de personas que están dispuestas a invertir su tiempo y su dinero en alcanzar sus objetivos a través de tecnología. Dispuesta a confiar en ti, empresa tecnológica. Y eso es emoción.

Partiendo de esta premisa tan clara y meridiana, inferimos nuestro objetivo más conciso: aportar retorno de inversión, expresión que aterrizada a una escala emocional, se traduce en aportar bienestar y, por qué no, alegría.

Hacia un lugar más exacto

Cuando hablamos de abordar un proyecto de digitalización, hablamos de formar equipo. Implicar a nuestros clientes en el desarrollo de sus ideas es parte del juego, y la única forma que conocemos de que todo llegue a buen puerto. La digitalización coral, como ocurre en un plano secuencia, permite aportar un dinamismo especial, y ayuda a descubrir de forma progresiva el escenario y el contexto al que sus protagonistas se enfrentan. En definitiva, digitalizar en plano secuencia.

En "Senderos de Gloria", el general pasa revista a sus tropas

En «Senderos de Gloria«, el general pasa revista a sus tropas paseando por la mismísima trinchera. Mientras toma el pulso a la realidad de sus hombres, se suceden las explosiones. El espectador, el analista, empieza a darse cuenta de qué hay enfrente (objetivos), cuál es la amenaza (oportunidad) y cuál es el estado actual de las cosas.

Un paso para poder dar el siguiente

Son los conceptos de continuidad e inclusión los que hacen del plano secuencia algo realmente especial. En muchas ocasiones, el éxito de un proceso de digitalización va precisamente de eso. Al final de la escena, tenemos una idea de conjunto clara, y sabemos con seguridad qué ha pasado. Pero llegar a este punto con éxito significa haber ido paso a paso, quitando capas de la cebolla mecánica.

Matthew McConaughey afronta una acción maravillosamente interminable en «True Detective» con una estrategia en mente, pero sin conocer los problemas reales y específicos a los que se enfrentará. Anda por exteriores, se agazapa, penetra en habitaciones, protege y ataca, siempre en alerta y bien planificado, pero sin saber con exactitud qué hay al otro lado. Y cuando el problema llega, aplica la solución concreta, lo que la acerca a la más correcta. Matt itera y avanza.

Un equilibrio prácticamente quirúrgico

Mi plano secuencia digital es un Mínimo Producto Viable, una fase corta, ambiciosa y con un objetivo claro que resulta espectacular (aporta valor), que convierte al espectador en actor (hace equipo), y que pone las cartas sobre la mesa para abordar soluciones (orienta a objetivo). Ahora bien, ¿es complicado? Veamos.

Un plano secuencia sale bien teniendo claro cuál es el objetivo y tomando conciencia de qué papel ha de jugar cada actor

¿Cuántos ángulos, travellings y cambios de ángulo y altura acompañan a Michael Keaton en «Birdman«? La coreografía es tan efectiva y eficiente como difícil de coordinar. ¿Un fallo puede provocar una repetición de la secuencia? Quizás. ¿Es costoso? Claro, pero, ¿no lo es más aún un fracaso en taquilla? Un plano secuencia sale bien teniendo claro cuál es el objetivo y tomando conciencia de qué papel ha de jugar cada actor. Digitalizar en plano secuencia.

Uno de los primeros planos secuencia del cine pertenece a Murnau, de su película «Amanecer», de 1927. Todo está ahí, sólo hay que querer, atreverse y saber utilizarlo.

¿Quieres dar el primer paso en digitalización? Llámanos sin compromiso y diseñamos tu Mínimo Producto Viable

El papel de la protección de datos en tiempos de teletrabajo

El papel de la protección de datos en tiempos de teletrabajo

El papel de la protección de datos en tiempos de teletrabajo

El teletrabajo y la protección de datos en los tiempos que corren deben ir de la mano. Desde la incorporación masiva del teletrabajo en nuestras vidas, se ha configurado un nuevo escenario de riesgos en materia de seguridad y protección de datos personales que ha de gestionarse de una manera adecuada para garantizar la integridad y privacidad de los distintos actores de acuerdo a las leyes vigentes al respecto.

Para desempeñar el trabajo diario en cualquier puesto de trabajo, independientemente de su localización, se necesita acceder a datos personales que deben estar protegidos. Estos datos van desde nombres, números de teléfono o direcciones, hasta cuentas bancarias o información fiscal, y engloban tanto al personal de la empresa como a clientes y proveedores.

En absolutamente todos los casos descritos, deben aplicarse una serie de medidas que reglen y asienten el papel de la protección de datos en el teletrabajo.

Postura de la AEPD y primeras medidas a adoptar

Numerosas son las medidas que se pueden aplicar para mantener la seguridad y protección de los equipos informáticos y dispositivos y, consecuentemente, de los datos que puedan albergar. La Agencia Española de Protección de Datos es uno de los primeros organismos que se ha pronunciado con respecto a este tema, exponiendo a través de recomendaciones unas series de medidas a tener en cuenta.

Estas recomendaciones aparecen divididas en medidas y buenas prácticas dirigidas tanto a los responsables del tratamiento de los datos, como al personal que participa en las operaciones sobre dicho tratamiento y manipulación.

A modo de resumen, con respecto a las recomendaciones dirigidas a responsables del tratamiento, la AEPD aconseja definir una política de protección de la información para situaciones de movilidad que recoja las formas de acceso remoto que se permiten, o las responsabilidades y obligaciones que asumen las personas empleadas.

Otras recomendaciones destacables por la AEPD en este sentido son la adopción de soluciones y la elección de prestadores de servicios confiables y con garantías, que eviten en todo momento la exposición de los datos personales y aseguren la restricción del acceso a la información.

Medidas que se pueden aplicar para mantener la seguridad y protección de los equipos informáticos

Configuración periódica de equipos y dispositivos digitales

Configurar periódicamente los equipos y dispositivos utilizados asegurando su actualización, o monitorizar los accesos a la red corporativa y gestionar racionalmente la protección de datos y la seguridad, cierran las seis recomendaciones dirigidas a los responsables del tratamiento de datos en las empresas.

Con respecto a las recomendaciones dirigidas al personal que participa en las operaciones de tratamiento, la AEPD recomienda:

  • Respetar la política de protección de la información en situaciones de movilidad definida por el responsable.
  • Proteger el dispositivo utilizado en movilidad y el acceso al mismo, utilizando contraseñas de acceso robustas o evitando la conexión de los dispositivos a la red corporativa desde lugares públicos.
  • Garantizar la protección de la información que se está manejando no dejando a la vista ningún soporte de información en el lugar donde se desarrolle el teletrabajo, bloqueando las sesiones de los dispositivos cuando estos estén desatendidos o evitando exponer la pantalla a la mirada de terceros.
  • Guardar la información en los espacios de red habilitados haciendo uso de los recursos de almacenamiento compartidos o en la nube proporcionados por la organización.
  • Comunicar, si hay sospecha de que la información ha podido verse comprometida y con carácter inmediato, la brecha de seguridad a la persona responsable en cuestión.

La postura del CCN sobre videoconferencias y reuniones virtuales

Otro de los organismos que también se ha pronunciado sobre la privacidad de los datos en el teletrabajo es el Centro Criptológico Nacional. El CCN recopila pormenorizadamente una serie de recomendaciones que van desde la protección y seguridad de los datos en videoconferencias y reuniones virtuales, hasta las soluciones técnicas de acceso remoto seguro, destacando un informe recogido en dos anexos en los que se detalla cada una de las dos soluciones propuestas: la nube o sistemas locales (on-premise).

Desde el prisma que nos ocupa, considerando la situación actual y entendiendo la importancia que subyace tras la protección de datos, todos estos mecanismos deberán ayudarnos a desempeñar nuestro trabajo en remoto de una forma segura, garantizando en todo momento la protección y la intimidad de todos los actores implicados.

En Sixphere trabajamos de manera remota desde su fundación, apostando por el teletrabajo como medida principal de conciliación entre la vida laboral y personal. Y, por supuesto, somos conscientes del importante papel de la protección de datos en el teletrabajo. A este respecto, son numerosas las medidas implantadas y constantes las adaptaciones realizadas sobre ellas, basadas en las necesidades de nuestro equipo, nuestros clientes y nuestros proveedores y, por supuesto, alineadas con las leyes vigentes.

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data, anomalías y predicción: análisis de una serie temporal

El tiempo de fabricación de un elemento en una línea de producción es, debido a la naturaleza propia del proceso, un valor que no debe variar demasiado en el tiempo. Sólo debe verse afectado de manera significativa por la aparición de alguna anomalía. Esto lo convierte en un dato idóneo para ser estudiado y analizado como una serie temporal.

Se llevará a cabo un análisis de los tiempos de fabricación de un elemento haciendo uso de modelos de autorregresión. Se empleará concretamente la metodología Box-Jenkins, considerando los siguientes bloques:

  • Estudio de la estructura de la serie, para determinar si se trata de una serie estacionaria, además de chequear la existencia de outliers.
  • Búsqueda de los modelos y parámetros que mejor ajusten la serie, estudiando el ajuste de los modelos ARMA o ARIMA según corresponda y estimando los valores más apropiados para sus parámetros.
  • Validación del modelo seleccionado, llevando a cabo un análisis sobre el ruido blanco explicado por el modelo.
  • Predicción de valores futuros, haciendo uso del modelo seleccionado, así como la detección de valores outliers.

Estudio de la estructura de la serie

La serie está compuesta por un conjunto de observaciones ordenadas de la variable timesheet_incurred, que representa el tiempo de fabricación, en segundos, que se ha consumido en la ejecución de una determinada operación sobre un elemento.

Con una simple descriptiva se observa una gran amplitud en la distribución de los valores, sobre todo teniendo en cuenta la naturaleza de los mismos.

Big Data, anomalías y predicción

En los gráficos de distribución se observa cláramente cómo la variable tiene valores muy dispersos, pero al mismo tiempo concentrados alrededor de los intervalos (0, 1000) y (5000, 7000).

Big Data, anomalías y predicción

En la gráfica de valores se aprecia una clara diferencia en la distribución de los mismos a partir de la observación 109. Esto puede ser debido a un cambio en el proceso de producción que haya afectado cláramente al tiempo de fabricación del elemento.

En la gráfica de valores se observa una clara diferencia en la distribución de los mismos a partir de la observación 109. Esto puede ser debido a un cambio en el proceso de producción que haya afectado cláramente al tiempo de fabricación del elemento.

¿Quieres profundizar más en este experimento de
Big Data, anomalías y predicción?

O visita el caso técnico completo con recursos de código fuente y resultados obtenidos.
Big Data, anomalías y predicción.

Búsqueda de los modelos y parámetros

Existen métodos para la estimación de los parámetros del modelo ARIMA basados en la aplicación de algunos tests, pero quizás el más extendido y fácil de usar es el que consiste en calcular y minimizar el error cuadrático medio obtenido de diferentes combinaciones de los parámetros p, q y d del modelo.

En nuestro ejemplo, probando diferentes valores, se obtiene que la combinación con menor MSE es (4,0,20).

Big Data, anomalías y predicción

Validación del modelo

Para comprobar la validez del modelo se lleva a cabo el análisis de los residuos para determinar si se trata de ruido blanco.

En primer lugar se aplica un test de normalidad sobre los residuos, del cual se desprende que se rechaza la hipótesis de que sigan una distribución normal. Esto es indicativo de que no todo el comportamiento de la serie queda explicado por el modelo. Esto puede ser debido a que la serie sufre muchas anomalías, aunque existe correlación entre los valores.

En segundo lugar, se aplica el test de Durbin-Watson para contrastar la existencia de correlación en los residuos del modelo. El resultado es un valor muy cercano a 2, lo cual indica la NO existencia de correlación en los residuos, por lo que damos el modelo como válido.

Predicción de valores futuros

Haciendo uso del modelo seleccionado se pueden hacer predicciones para los valores próximos de la serie, tal como se observa en el siguiente gráfico.

Big Data, anomalías y predicción

Pero otro beneficio importante de este tipo de análisis sobre una serie temporal es que se puede usar para la detección de anomalías. Haciendo una simple normalización de la serie, se observan outliers dependiendo de la desviación estándar móvil.

Sin embargo, estudiando la desviación entre el valor observado y el valor predicho por el modelo, se pueden detectar anomalías de una manera más sensible que el método anterior. El siguiente gráfico señala anomalías detectadas en aquellos valores cuya desviación con respecto a lo estimado supera la desviación estándar móvil para dicho punto.

Big Data, anomalías y predicción

¿Quieres profundizar más en este experimento?

O visita el caso técnico completo con recursos de código fuente y resultados obtenidos.
Big Data, anomalías y predicción.

Tres formas de explotar datos en tu proceso de digitalización

Tres formas de explotar datos en tu proceso de digitalización

Tres formas de explotar datos en tu proceso de digitalización

El auge de la transformación digital de procesos productivos y de negocio, así como la implantación intensiva de sistemas de información, han abierto una nueva vía de optimización y mejora: el uso de los datos.

De forma apenas perceptible, estos sistemas de información presentes en las organizaciones han acumulado datos y datos que, sin duda, es hora de aprovechar. Existe la tecnología y existen los medios para hacerlo. ¿El siguiente paso? Obtener, a partir de ellos, información que optimice la toma de decisiones en el día a día. Exploremos tres formas de explotar datos.

El dato, actor protagonista en el ciclo de digitalización

Antes de nada, cabe preguntarse qué lugar ocupa el dato en el proceso de transformación digital de las compañías. ¿Qué hay que hacer para “tener” datos? ¿Qué sistemas “crean” los datos? Ante estas dudas frecuentes, cabe preguntarse “cómo” en lugar de “qué”.

Cualquier organización, independientemente del grado de digitalización que haya alcanzado en sus procesos, posee datos: en papel, en hojas de cálculo, en ERP’s, en sistemas de gestión de RRHH… El reto a afrontar es cómo captar y modelar esos datos para convertirlos en información útil.

Generación, captación y modelado

A la hora de afrontar un proyecto de datos, pueden diferenciarse tres grandes fases: la generación y/o captación del dato; el análisis y modelado de los datos captados; y la explotación del dato con el fin de convertirlo en información de utilidad.

La complejidad y alcance de cada una de estas fases dependerá directamente de los objetivos de negocio marcados, que a su vez deberán responder y estar alineados a una estrategia empresarial.

  • Generación y/o captura: el primer paso consiste en analizar qué datos existen y están disponibles en la organización. Como resultado, dos posibles acciones: implantar sistemas que sean capaces de facilitar la generación digital de los datos requeridos, e implantar la infraestructura necesaria para realizar una captura continua de estos en tiempo real.
  • Modelado: el siguiente paso es analizar, transformar y estructurar los datos capturados en entidades de negocio con un significado dentro de los procesos de la compañía. Dicho de otro modo, el objetivo es dar forma a esos datos para convertirlos en información de utilidad.
  • Explotación: una vez dispuestos los datos estructurados y listos para su procesamiento, llega el momento de su aprovechamiento para alcanzar las mejoras marcadas. A continuación, se expondrán algunas de las alternativas existentes.

Tres formas de explotar datos, tres modos de mejorar

La eficiencia de un proceso productivo depende directamente de la calidad de las decisiones tomadas, y la eficacia de estas es inversamente proporcional al tiempo invertido en ejecutarlas. El tiempo es oro, y el dato ayuda a optimizarlo. Cada negocio es distinto, y sus objetivos estratégicos inevitablemente varían. No obstante, todos tienen algo en común: la necesidad de mejorar de forma continua.

Mejora de la toma de decisiones a través de datos

Cuadros de mando y tiempo real

El modo de explotación más extendido: el cuadro de mando. A grandes rasgos, el objetivo principal de este tipo de soluciones es mostrar al usuario final información que le ayude, con un simple golpe de vista, a identificar si los procesos, áreas o ámbitos de los que es responsable marchan como deben.

Sin embargo, no por extendida la elaboración de cuadros de mando siempre es bien aplicada. El primer paso para elaborar un buen cuadro de mando es analizar el perfil de usuario al que va destinado y alinear su contenido a la necesidad de aquel. Es necesario huir del exceso de información e “ir al grano”. Sólo de esta forma se alcanzará el objetivo principal: facilitar la toma de decisiones.

Como complemento al requisito anterior, un buen cuadro de mando debe estar alineado a un conjunto de objetivos de negocio y, por ende, ha de representar el estado y la evolución en un período de tiempo específico de KPIs concretos y suficientemente representativos para el perfil al que están destinados. Ello va a permitir asimismo construir cuadros de mando sencillos y visuales que ofrezcan una foto actual del estado de los procesos a golpe de vista.

Por último, y siempre en la medida de lo posible, un buen cuadro de mando debe ofrecer información en estricto tiempo real. Cada día más, es la capacidad de anticipación y la rapidez en la resolución de problemas la que marca la diferencia y mejora la competitividad.

¡Empieza a imaginar tu proyecto!

Te ayudamos a imaginar cómo sería tu proyecto de datos.
Gratis y sin compromiso.

Detección de anomalías en tiempo real

La explotación de datos a través de cuadros de mando proporciona un método eficaz para mostrar al usuario final el estado de sus KPIs de negocio. No obstante se trata de un método pasivo, es decir, es el usuario el que ha de sacar conclusiones a partir de su análisis. ¿Por qué no dar un paso más?

El dato puede tener iniciativa propia, puede ser proactivo y hablar por sí mismo. Sólo hace falta un poco de IA y Big Data para alcanzar modelos inteligentes de detección de anomalías.

Este tipo de sistemas se encargan, en esencia, de analizar continuamente un determinado conjunto de datos con el fin, en primer lugar, de identificar patrones comunes, continuos y persistentes en el tiempo para, en última instancia, detectar si un determinado suceso o comportamiento es anómalo.

Los modelos de detección de anomalías tienen una ventaja sustancial sobre otros modos de explotación de datos: más allá de girar en torno a KPIs predefinidos, desenmascaran posibles problemas o cuellos de botella ocultos.

Modelos inteligentes de autoaprendizaje

Siguiendo la senda de la aplicación de modelos inteligentes, pueden aún darse pasos más allá en relación al uso de datos para la implementación de sistemas que mejoren de forma sustancial los procesos de una organización.

A través del análisis de datos y su procesamiento en combinación con el desarrollo de componentes Machine Learning, pueden implementarse modelos predictivos que ofrezcan estimaciones con un alto grado de fiabilidad sobre parámetros de producción claves para la estrategia empresarial de la organización.

Asimismo, a través de retroalimentación y aprendizaje, dichos modelos pueden alcanzar un alto grado de autonomía a la hora de anticipar errores, anomalías o bloqueos en la ejecución de un proceso de negocio. E incluso, más allá, facilitar la operativa diaria a través de la asistencia automática a la toma de decisión.

En resumen, el ciclo de vida del dato y su poder como motor de mejora de procesos empresariales es tan grande como grandes sean los objetivos marcados. No siempre es necesario abordar proyectos complejos, ni siempre es suficiente con un cuadro de mando. El dato está a disposición de la estrategia, sólo hay que saber aprovecharlo.

Big Data y su papel en la fábrica del futuro

Big Data y su papel en la fábrica del futuro

Big Data y su papel en la fábrica del futuro

Big Data qué es y cómo funciona

El término Big Data lleva ya un tiempo copando buena parte de la información tecnológica. Un concepto que ha ido tomando importancia debido a que cada vez se generan más datos, a mayor velocidad y la tecnología nos permite tener más capacidad para almacenarlos a un precio aceptable, así como para procesarlos y extraer valor de ellos.

Big Data supuso un paso de gigante a la hora de trabajar con esta información, ya que no se podía trabajar con tales cantidades de datos con los métodos tradicionales. Con Big Data se consigue automatizar la recopilación, clasificación, gestión y análisis de toda la información.

Sin duda, Big Data consigue superar algunos de los retos que en un principio se le planteaban. Entre ellos, además de las enormes cantidades de datos, también se encontraba la tipología de estos.

Respecto a esto último, destacar el papel de los datos no estructurados. Es decir, aquellos que no están definidos por un modelo concreto. Para que lo veas más claro, datos estructurados son los multimedia, los correos electrónicos, hojas de cálculo, algunos provenientes de dispositivos IoT, etc. 

Además de estos, las soluciones Big Data también trabajan con datos estructurados – organizados en bases de datos – y semiestructurados, que son un híbrido entre ambos.

Tradicionalmente, Big Data se ha definido por una serie de características que se conocen como las V del Big Data. Estas son: volumen, variedad, velocidad, veracidad, valor.

Para conocer el funcionamiento de Big Data, no es necesario entrar en materia excesivamente técnica y sólo comprensible por expertos. Al menos si sólo quieres tener una visión general del proceso.

En primer lugar, hay que integrar las diversas fuentes de información de las que puedes sacar valor. En el caso de las fábricas del futuro, estos datos provendrán de sensores instalados en las líneas de producción, como los propios del Internet Industrial de las Cosas, así como de dispositivos beacons para el posicionamiento, de resultados de los controles de calidad, anotaciones de los propios trabajadores, etc.

Después habrá que darles en formato correcto y almacenarlos ordenadamente, ya sea en la nube o en un sistema interno propio. Por último, llega el momento del análisis de estos para poder extraer conclusiones que favorezcan la toma de decisiones. Algo que suele conseguirse con la contribución de otras tecnologías especializadas, como las propias de la inteligencia artificial (machine learning, deep learning…).

SIXPHERE - Big Data y fábrica del futuro

La Industria 4.0 y la fábrica del futuro

No cabe duda de que las fábricas del mañana se cimentarán sobre las bases de la Industria 4.0 y de la fábrica inteligente o Smart Factory. ¿Te parece que viajemos en el tiempo (no demasiado) y hagamos una visita a la fábrica del futuro?

Serán varios los aspectos que caracterizarán a las plantas industriales de los próximos años. Entre los más importantes, tenemos:

  • Conexión: la conectividad está por donde quiera que mires, en tu casa, en la calle, mientras viajas en metro y, por supuesto, en tu puesto de trabajo. Las fábricas conectadas permitirán una comunicación más fluida entre departamentos, estimulando el trabajo colaborativo.
  • Automatización: el desarrollo tecnológico permite que los sistemas hagan tareas que hasta entonces requerían de la intervención humana. Muchas de estas acciones apenas aportaban valor. Por lo que en la fábrica del futuro, las personas podrán enfocarse en realizar tareas realmente importantes.
  • Flexibilidad: la capacidad de respuesta es mucho mayor. La producción se adaptará perfectamente a las fluctuaciones de la demanda, así como a cambios inesperados y contingencias varias.
  • Sostenibilidad: el cuidado del medio ambiente es un objetivo común de la sociedad del mañana, y la industria no podía quedarse al margen. La economía circular, el mayor aprovechamiento de los recursos y el uso de energías renovables serán clave para ello.
  • Seguridad: la delicada situación sanitaria por la que estamos pasando ha puesto en evidencia lo importante que es cuidar de la salud del entorno laboral. Para ello se ha dado un gran paso en el desarrollo de soluciones que permiten monitorizar los movimientos realizados y evaluar si se toman medidas como la distancia de seguridad y el uso de mascarillas.
  • Logística avanzada: un aspecto clave para el desarrollo de la actividad industrial son las operaciones logísticas – gestión de almacén, aprovisionamiento, distribución – a lo largo de toda la cadena de suministro. En este sentido, tecnologías como Blockchain han contribuido enormemente a optimizarla.
  • Centrada en el cliente: hoy en día conocemos mejor a nuestros clientes que nunca. Esto nos permite ajustar nuestros productos a lo que realmente desean, así como ofrecerles una atención más personalizada. Todo ello en pro de su mayor satisfacción.

Importancia del análisis de datos y de Big Data en las empresas

Si hay un denominador común en todas estas facetas de la fábrica del futuro, son los datos. Los datos, junto con las personas, son el corazón de la fábrica del futuro. Y es que prácticamente cualquier actividad que tenga lugar generará información valiosa que, gracias a Big Data, no se te escapará.

La analítica de datos te permitirá saber en tiempo real qué está pasando en la planta, aplicando una trazabilidad integral de todos los procesos. Desde que se recibe la materia prima, hasta que el producto final llega al cliente.

Esto te hará mantener los estándares de calidad necesarios y exigidos por las autoridades y por el propio mercado. También te permitirá detectar patrones que harán que te anticipes al futuro. Un claro ejemplo de ello son las técnicas de mantenimiento predictivo.

Desde el punto de vista estrictamente humano, tendrás un conocimiento en profundidad del desempeño de los equipos de trabajo, facilitándote una gestión óptima de ellos. Además, podrás garantizar su salud mediante el control de los contagios.

Respecto a tu relación con proveedores, partners y clientes, se incrementará la confianza y transparencia entre todas las partes implicadas. Estrechando así los lazos de negocio.

En pocas palabras, conseguirás un control y una gestión integral de tu producción como nunca antes habías tenido. 

Aunque hayamos hablado de la fábrica del futuro, bien es cierto que prácticamente podríamos hacerlo de la fábrica del presente. Y es que las empresas que triunfan en su sector ya cuentan con la mayor parte de las características que hemos mencionado.

Si no deseas quedarte atrás, en Sixphere podemos ayudarte ofreciéndote soluciones de digitalización a medida que te harán estar a su misma altura y competir cara a cara. ¿Te ha picado la curiosidad sobre cómo lo hacemos? No te quedes con la intriga y contacta con nosotros para aclarar todas tus dudas. ¡Vamos a por ello!

Power BI y conectores personalizados con puertas de enlace

Power BI y conectores personalizados con puertas de enlace

¿Has creado un informe en Power BI Desktop y, al publicarlo, no funciona? ¿Utilizas conectores personalizados para extraer tus datos? ¿Quieres actualizar tus conjuntos de datos en Power BI Cloud y saltan errores por doquier? Para todo hay una solución y, en este caso, se llama puerta de enlace. Veamos en qué consiste.

Gemelos digitales o una canción del verano interminable

Gemelos digitales o una canción del verano interminable

Cada verano, de forma irremediable, surge esa canción que se acomoda plácidamente y por largo tiempo en la mente (colectiva) del pobre ciudadano de a pie. No se habla de otra cosa. Pues con la tecnología pasa exactamente igual, y ahora es el turno (¿?) del gemelo digital.

Los casos de éxito de Sixphere

¿Quieres conocer qué hacemos y el modo en que lo hacemos? Visita nuestros casos de éxito y pregúntanos todo lo que necesites saber.