Seleccionar página
Digitalizar en plano secuencia

Digitalizar en plano secuencia

Digitalizar en plano secuencia

Transformación digital

No debe haber miedo en afirmar, simplemente por ser en apariencia un concepto opuesto al frío tecnológico, que la digitalización trata de emociones.

Tras cada decisión de optimización, tras cada idea de mejora o tras cada sueño de evolución, hay una persona o un grupo de personas que están dispuestas a invertir su tiempo y su dinero en alcanzar sus objetivos a través de tecnología. Dispuesta a confiar en ti, empresa tecnológica. Y eso es emoción.

Partiendo de esta premisa tan clara y meridiana, inferimos nuestro objetivo más conciso: aportar retorno de inversión, expresión que aterrizada a una escala emocional, se traduce en aportar bienestar y, por qué no, alegría.

Hacia un lugar más exacto

Cuando hablamos de abordar un proyecto de digitalización, hablamos de formar equipo. Implicar a nuestros clientes en el desarrollo de sus ideas es parte del juego, y la única forma que conocemos de que todo llegue a buen puerto. La digitalización coral, como ocurre en un plano secuencia, permite aportar un dinamismo especial, y ayuda a descubrir de forma progresiva el escenario y el contexto al que sus protagonistas se enfrentan. En definitiva, digitalizar en plano secuencia.

En "Senderos de Gloria", el general pasa revista a sus tropas

En «Senderos de Gloria«, el general pasa revista a sus tropas paseando por la mismísima trinchera. Mientras toma el pulso a la realidad de sus hombres, se suceden las explosiones. El espectador, el analista, empieza a darse cuenta de qué hay enfrente (objetivos), cuál es la amenaza (oportunidad) y cuál es el estado actual de las cosas.

Un paso para poder dar el siguiente

Son los conceptos de continuidad e inclusión los que hacen del plano secuencia algo realmente especial. En muchas ocasiones, el éxito de un proceso de digitalización va precisamente de eso. Al final de la escena, tenemos una idea de conjunto clara, y sabemos con seguridad qué ha pasado. Pero llegar a este punto con éxito significa haber ido paso a paso, quitando capas de la cebolla mecánica.

Matthew McConaughey afronta una acción maravillosamente interminable en «True Detective» con una estrategia en mente, pero sin conocer los problemas reales y específicos a los que se enfrentará. Anda por exteriores, se agazapa, penetra en habitaciones, protege y ataca, siempre en alerta y bien planificado, pero sin saber con exactitud qué hay al otro lado. Y cuando el problema llega, aplica la solución concreta, lo que la acerca a la más correcta. Matt itera y avanza.

Un equilibrio prácticamente quirúrgico

Mi plano secuencia digital es un Mínimo Producto Viable, una fase corta, ambiciosa y con un objetivo claro que resulta espectacular (aporta valor), que convierte al espectador en actor (hace equipo), y que pone las cartas sobre la mesa para abordar soluciones (orienta a objetivo). Ahora bien, ¿es complicado? Veamos.

Un plano secuencia sale bien teniendo claro cuál es el objetivo y tomando conciencia de qué papel ha de jugar cada actor

¿Cuántos ángulos, travellings y cambios de ángulo y altura acompañan a Michael Keaton en «Birdman«? La coreografía es tan efectiva y eficiente como difícil de coordinar. ¿Un fallo puede provocar una repetición de la secuencia? Quizás. ¿Es costoso? Claro, pero, ¿no lo es más aún un fracaso en taquilla? Un plano secuencia sale bien teniendo claro cuál es el objetivo y tomando conciencia de qué papel ha de jugar cada actor. Digitalizar en plano secuencia.

Uno de los primeros planos secuencia del cine pertenece a Murnau, de su película «Amanecer», de 1927. Todo está ahí, sólo hay que querer, atreverse y saber utilizarlo.

¿Quieres dar el primer paso en digitalización? Llámanos sin compromiso y diseñamos tu Mínimo Producto Viable

El papel de la protección de datos en tiempos de teletrabajo

El papel de la protección de datos en tiempos de teletrabajo

El papel de la protección de datos en tiempos de teletrabajo

Privacidad | Protección de datos | Seguridad | Teletrabajo

El teletrabajo y la protección de datos en los tiempos que corren deben ir de la mano. Desde la incorporación masiva del teletrabajo en nuestras vidas, se ha configurado un nuevo escenario de riesgos en materia de seguridad y protección de datos personales que ha de gestionarse de una manera adecuada para garantizar la integridad y privacidad de los distintos actores de acuerdo a las leyes vigentes al respecto.

Para desempeñar el trabajo diario en cualquier puesto de trabajo, independientemente de su localización, se necesita acceder a datos personales que deben estar protegidos. Estos datos van desde nombres, números de teléfono o direcciones, hasta cuentas bancarias o información fiscal, y engloban tanto al personal de la empresa como a clientes y proveedores.

En absolutamente todos los casos descritos, deben aplicarse una serie de medidas que reglen y asienten el papel de la protección de datos en el teletrabajo.

Postura de la AEPD y primeras medidas a adoptar

Numerosas son las medidas que se pueden aplicar para mantener la seguridad y protección de los equipos informáticos y dispositivos y, consecuentemente, de los datos que puedan albergar. La Agencia Española de Protección de Datos es uno de los primeros organismos que se ha pronunciado con respecto a este tema, exponiendo a través de recomendaciones unas series de medidas a tener en cuenta.

Estas recomendaciones aparecen divididas en medidas y buenas prácticas dirigidas tanto a los responsables del tratamiento de los datos, como al personal que participa en las operaciones sobre dicho tratamiento y manipulación.

A modo de resumen, con respecto a las recomendaciones dirigidas a responsables del tratamiento, la AEPD aconseja definir una política de protección de la información para situaciones de movilidad que recoja las formas de acceso remoto que se permiten, o las responsabilidades y obligaciones que asumen las personas empleadas.

Otras recomendaciones destacables por la AEPD en este sentido son la adopción de soluciones y la elección de prestadores de servicios confiables y con garantías, que eviten en todo momento la exposición de los datos personales y aseguren la restricción del acceso a la información.

Medidas que se pueden aplicar para mantener la seguridad y protección de los equipos informáticos

Configuración periódica de equipos y dispositivos digitales

Configurar periódicamente los equipos y dispositivos utilizados asegurando su actualización, o monitorizar los accesos a la red corporativa y gestionar racionalmente la protección de datos y la seguridad, cierran las seis recomendaciones dirigidas a los responsables del tratamiento de datos en las empresas.

Con respecto a las recomendaciones dirigidas al personal que participa en las operaciones de tratamiento, la AEPD recomienda:

  • Respetar la política de protección de la información en situaciones de movilidad definida por el responsable.
  • Proteger el dispositivo utilizado en movilidad y el acceso al mismo, utilizando contraseñas de acceso robustas o evitando la conexión de los dispositivos a la red corporativa desde lugares públicos.
  • Garantizar la protección de la información que se está manejando no dejando a la vista ningún soporte de información en el lugar donde se desarrolle el teletrabajo, bloqueando las sesiones de los dispositivos cuando estos estén desatendidos o evitando exponer la pantalla a la mirada de terceros.
  • Guardar la información en los espacios de red habilitados haciendo uso de los recursos de almacenamiento compartidos o en la nube proporcionados por la organización.
  • Comunicar, si hay sospecha de que la información ha podido verse comprometida y con carácter inmediato, la brecha de seguridad a la persona responsable en cuestión.

La postura del CCN sobre videoconferencias y reuniones virtuales

Otro de los organismos que también se ha pronunciado sobre la privacidad de los datos en el teletrabajo es el Centro Criptológico Nacional. El CCN recopila pormenorizadamente una serie de recomendaciones que van desde la protección y seguridad de los datos en videoconferencias y reuniones virtuales, hasta las soluciones técnicas de acceso remoto seguro, destacando un informe recogido en dos anexos en los que se detalla cada una de las dos soluciones propuestas: la nube o sistemas locales (on-premise).

Desde el prisma que nos ocupa, considerando la situación actual y entendiendo la importancia que subyace tras la protección de datos, todos estos mecanismos deberán ayudarnos a desempeñar nuestro trabajo en remoto de una forma segura, garantizando en todo momento la protección y la intimidad de todos los actores implicados.

En Sixphere trabajamos de manera remota desde su fundación, apostando por el teletrabajo como medida principal de conciliación entre la vida laboral y personal. Y, por supuesto, somos conscientes del importante papel de la protección de datos en el teletrabajo. A este respecto, son numerosas las medidas implantadas y constantes las adaptaciones realizadas sobre ellas, basadas en las necesidades de nuestro equipo, nuestros clientes y nuestros proveedores y, por supuesto, alineadas con las leyes vigentes.

Conectores personalizados Power BI, un modo profesional de analítica empresarial

Conectores personalizados Power BI, un modo profesional de analítica empresarial

Conectores personalizados Power BI, un modo profesional de analítica empresarial

Analítica | Datos | Power BI

A estas alturas, (casi) todo el mundo conoce Power BI. Su flujo de funcionamiento a alto nivel es sencillo: conexión contra un origen de datos soportado; carga de los datos extraídos sobre la plataforma Power BI; y transformación y manipulación de los datos cargados para la obtención de información. Y es precisamente en su capacidad de conexión con múltiples orígenes de datos donde reside una de las grandes fortalezas de la herramienta.

Con mayor o menor pericia, la mayoría de analistas o responsables de negocio alguna vez han conectado como origen una hoja Excel, han cargado sus datos y han jugado con ellos para construir informes, gráficos y pequeños cuadros de mando. ¿Dispones de bases de datos MySQL Server? ¿Quizás Microsoft Access? ¿Incluso PDFs? Power BI ofrece de manera nativa conectores para extraer y consumir sus datos en pocos clicks

Pero… ¿qué ocurre si nuestro origen de datos (un sistema corporativo interno, un ERP o cualquier otra aplicación implantada en nuestro negocio) no está soportado por Power BI? Keep Calm & Custom Connectors. Conectores Power BI para analítica profesional a tu alcance.

Power BI proporciona multitud de conectores contra distintas fuentes de datos

Conectores personalizados Power BI, una estrategia

La implementación de Custom Connectors sobre Power BI se lleva a cabo a través de la SDK Power Query, un motor de preparación y transformación de datos. No obstante, más allá de conocimientos sobre el lenguaje de programación, el desarrollo de un conector personalizado requiere de una estrategia que fije los objetivos que se desean alcanzar. Los pasos de dicha estrategia bien pueden ser los siguientes:

  1. Determinar qué origen de datos queremos integrar y, sobre todo, qué datos se quieren obtener de él y a qué necesidad de análisis responden.
  2. Estudiar los posibles modos de comunicación o APIs de los que dispone el origen de datos que queremos integrar.
  3. Analizar el modo de autenticación requerido contra el origen de datos, lo que determinará el nivel de seguridad y conectividad con éste.
  4. Especificar los parámetros que el usuario deberá introducir para recuperar los datos que desee en base a la interfaz de comunicación ofrecida por el origen de datos.
  5. Analizar la estructura de los datos devueltos por la interfaz de comunicación del origen de datos con el fin de estructurarlos adecuadamente para su carga final en Power BI.
  6. Diseñar las transformaciones previas que se han de llevar a cabo para ofrecer al usuario final un conjunto de datos adecuado a su perfil y necesidades.

Una vez marcada la estrategia, ¡manos a la obra!

Conectores Power BI para analítica de datos ¿Necesitas uno para tus sistemas?

La autenticación, un asunto vital

A la hora de implementar un conector personalizado, la autenticación es sin duda uno de los puntos centrales y más relevantes. Determinará, por un lado, de qué forma el conector deberá interactuar con el origen para la obtención de datos. Por otro lado, condicionará qué información y credenciales deberá proporcionar el usuario final y, por ende, de qué permisos de acceso a los datos obtenidos dispondrá.

Como es de suponer, el mecanismo de autenticación a implementar dependerá del origen de datos sobre el cual se quiere llevar a cabo la conexión. Afortunadamente, Power Query pone a disposición del desarrollador múltiples posibilidades, entre las que destacan la autenticación básica con usuario y contraseña y la autenticación vía OAuth2.0. De esta forma, se cubre un amplísimo rango de sistemas y aplicaciones.

Power BI mecanismos de autenticación básicos y OAuth2.0.

En el caso de implementar autenticación básica, Power BI solicitará al usuario sus credenciales de acceso a la plataforma origen para obtener los datos requeridos. En el caso de optar por autenticación OAuth, habrán de implementarse los métodos oportunos en base a la interfaz dispuesta por dicha plataforma origen.

Más fácil con transformaciones y árboles de navegación

Más allá de la autenticación, el otro punto clave a la hora de implementar un conector personalizado es el tratamiento previo sobre los datos extraídos del sistema origen que se ha de realizar para su carga final en Power BI. Este punto vendrá determinado tanto por el formato de los datos retornados por el sistema origen como por la necesidad y perfil del usuario final.

Power Query, a través de su lenguaje de fórmulas M, permite llevar a cabo transformaciones, combinaciones o filtrados de datos que, aplicados en el ámbito del conector personalizado, ofrecen al usuario los datos «precocinados».

No obstante, más allá de dicho procesamiento, Power Query aporta también los denominados árboles de navegación, que facilitan de forma extraordinaria al usuario final la visualización y elección de los conjuntos de datos que desee integrar en Power BI para su tratamiento.

Tabla de navegación Power BI para conjuntos de datos

A modo de conclusión, Power BI aporta mecanismos de extensión suficientes para la integración en los flujos de analítica empresarial de datos procedentes de cualquier sistema o plataforma interna o corporativa, permitiendo así crear un único Data Center personalizado y en tiempo real.

La importancia de llamarse PYME innovadora

La importancia de llamarse PYME innovadora

La importancia de llamarse PYME innovadora

Innovación | PYME | Sixphere

Tenemos el honor y la alegría de poder decir, después de varios años convencidos de ello, que somos oficialmente, Ministerio de Ciencia e Innovación mediante, una PYME innovadora en toda regla. Para nosotros, como empresa proveedora de tecnología, dicho reconocimiento supone muchísimo más que una imagen PNG que añadir a nuestras presentaciones comerciales. Nos refuerza en la idea de que es posible digitalizar innovando y, sobre todo, de que es factible llevar la innovación a nuestros clientes.

En Sixphere Somos Pyme innovadora

Este sello es la guinda de un pastel que comenzó a cocinarse allá por 2017, con la idea de crear, analizar y desarrollar, dentro del marco Industria 4.0, un ecosistema de gestión integral y en tiempo real de la producción basado en IoT, tecnologías de proximidad e IA.

Ya a finales del año pasado alcanzamos un hito, a nuestro modo de ver, espectacular para una PYME TIC como la nuestra: que AENOR certificase nuestro proyecto como I+D, un proceso realmente complejo y exigente (y en el que contamos con la ayuda de CTA) que ha culminado en la expedición de un informe motivado a tal efecto por el propio Ministerio, la llave final para alcanzar este pequeño tesoro.

La innovación como motor de transición digital

En Sixphere tenemos clara nuestra postura con respecto a la innovación, sabemos qué significa y estamos convencidos de su importancia y utilidad como motor de cambio y como generador de valor añadido. Para nosotros, en ningún caso es lo mismo explotar el negocio de la innovación que explorar la generación de negocio a través de la innovación. Nos apuntamos a la segunda filosofía.

El camino que nos ha llevado a ser PYME innovadora ha sido demostrar que diseñamos, ejecutamos, gestionamos y, sobre todo, apostamos por proyectos de innovación. Dicho de otro modo, hacemos de la innovación nuestro leitmotiv, nuestra marca diferenciadora, nuestro día a día. Nuestra regla fuera de la excepción.

¿Dónde encajan en este plan de empresa las ayudas, programas y subvenciones a la innovación? Para nosotros, por supuesto son una oportunidad única de impulsar ideas que complementan nuestros servicios y, sobre todo, que suponen un reto de mercado real. Hay mercado si existe la necesidad, y nuestro trabajo en esencia consiste en cubrir ese GAP con tecnología. Nuestra participación en BlockIS y BlockStart nos ha permitido demostrar (y demostrarnos) que la innovación ha de redundar en resultados tangibles y de valor. Y así la seguiremos enfocando.

La importancia de llamarse PYME innovadora

El carácter innovador de una empresa no nace y muere en un programa o en una ayuda, funciona cuando forma parte de su ADN. En este sentido, en Sixphere hacemos innovación como una forma de aportar valor. En una empresa como la nuestra, la innovación tiene peso específico cuando somos capaces de transmitir su método, su valor y su implantación a nuestros clientes.

Seguiremos desarrollando tecnología como herramienta para el cambio y la mejora continua. Seguiremos enfrentándonos a problemas complejos de la mejor forma posible: aportando imaginación, honestidad y resultados. ¡Larga vida a la innovación!

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data | Machine Learning

El tiempo de fabricación de un elemento en una línea de producción es, debido a la naturaleza propia del proceso, un valor que no debe variar demasiado en el tiempo. Sólo debe verse afectado de manera significativa por la aparición de alguna anomalía. Esto lo convierte en un dato idóneo para ser estudiado y analizado como una serie temporal.

Se llevará a cabo un análisis de los tiempos de fabricación de un elemento haciendo uso de modelos de autorregresión. Se empleará concretamente la metodología Box-Jenkins, considerando los siguientes bloques:

  • Estudio de la estructura de la serie, para determinar si se trata de una serie estacionaria, además de chequear la existencia de outliers.
  • Búsqueda de los modelos y parámetros que mejor ajusten la serie, estudiando el ajuste de los modelos ARMA o ARIMA según corresponda y estimando los valores más apropiados para sus parámetros.
  • Validación del modelo seleccionado, llevando a cabo un análisis sobre el ruido blanco explicado por el modelo.
  • Predicción de valores futuros, haciendo uso del modelo seleccionado, así como la detección de valores outliers.

Estudio de la estructura de la serie

La serie está compuesta por un conjunto de observaciones ordenadas de la variable timesheet_incurred, que representa el tiempo de fabricación, en segundos, que se ha consumido en la ejecución de una determinada operación sobre un elemento.

Con una simple descriptiva se observa una gran amplitud en la distribución de los valores, sobre todo teniendo en cuenta la naturaleza de los mismos.

Big Data, anomalías y predicción

En los gráficos de distribución se observa cláramente cómo la variable tiene valores muy dispersos, pero al mismo tiempo concentrados alrededor de los intervalos (0, 1000) y (5000, 7000).

Big Data, anomalías y predicción

En la gráfica de valores se aprecia una clara diferencia en la distribución de los mismos a partir de la observación 109. Esto puede ser debido a un cambio en el proceso de producción que haya afectado cláramente al tiempo de fabricación del elemento.

En la gráfica de valores se observa una clara diferencia en la distribución de los mismos a partir de la observación 109. Esto puede ser debido a un cambio en el proceso de producción que haya afectado cláramente al tiempo de fabricación del elemento.

¿Quieres profundizar más en este experimento de
Big Data, anomalías y predicción?

O visita el caso técnico completo con recursos de código fuente y resultados obtenidos.
Big Data, anomalías y predicción.

Búsqueda de los modelos y parámetros

Existen métodos para la estimación de los parámetros del modelo ARIMA basados en la aplicación de algunos tests, pero quizás el más extendido y fácil de usar es el que consiste en calcular y minimizar el error cuadrático medio obtenido de diferentes combinaciones de los parámetros p, q y d del modelo.

En nuestro ejemplo, probando diferentes valores, se obtiene que la combinación con menor MSE es (4,0,20).

Big Data, anomalías y predicción

Validación del modelo

Para comprobar la validez del modelo se lleva a cabo el análisis de los residuos para determinar si se trata de ruido blanco.

En primer lugar se aplica un test de normalidad sobre los residuos, del cual se desprende que se rechaza la hipótesis de que sigan una distribución normal. Esto es indicativo de que no todo el comportamiento de la serie queda explicado por el modelo. Esto puede ser debido a que la serie sufre muchas anomalías, aunque existe correlación entre los valores.

En segundo lugar, se aplica el test de Durbin-Watson para contrastar la existencia de correlación en los residuos del modelo. El resultado es un valor muy cercano a 2, lo cual indica la NO existencia de correlación en los residuos, por lo que damos el modelo como válido.

Predicción de valores futuros

Haciendo uso del modelo seleccionado se pueden hacer predicciones para los valores próximos de la serie, tal como se observa en el siguiente gráfico.

Big Data, anomalías y predicción

Pero otro beneficio importante de este tipo de análisis sobre una serie temporal es que se puede usar para la detección de anomalías. Haciendo una simple normalización de la serie, se observan outliers dependiendo de la desviación estándar móvil.

Sin embargo, estudiando la desviación entre el valor observado y el valor predicho por el modelo, se pueden detectar anomalías de una manera más sensible que el método anterior. El siguiente gráfico señala anomalías detectadas en aquellos valores cuya desviación con respecto a lo estimado supera la desviación estándar móvil para dicho punto.

Big Data, anomalías y predicción

¿Quieres profundizar más en este experimento?

O visita el caso técnico completo con recursos de código fuente y resultados obtenidos.
Big Data, anomalías y predicción.

Tres formas de explotar datos en tu proceso de digitalización

Tres formas de explotar datos en tu proceso de digitalización

Tres formas de explotar datos en tu proceso de digitalización

Big Data | Industria 4.0 | Transformación digital

El auge de la transformación digital de procesos productivos y de negocio, así como la implantación intensiva de sistemas de información, han abierto una nueva vía de optimización y mejora: el uso de los datos.

De forma apenas perceptible, estos sistemas de información presentes en las organizaciones han acumulado datos y datos que, sin duda, es hora de aprovechar. Existe la tecnología y existen los medios para hacerlo. ¿El siguiente paso? Obtener, a partir de ellos, información que optimice la toma de decisiones en el día a día. Exploremos tres formas de explotar datos.

El dato, actor protagonista en el ciclo de digitalización

Antes de nada, cabe preguntarse qué lugar ocupa el dato en el proceso de transformación digital de las compañías. ¿Qué hay que hacer para “tener” datos? ¿Qué sistemas “crean” los datos? Ante estas dudas frecuentes, cabe preguntarse “cómo” en lugar de “qué”.

Cualquier organización, independientemente del grado de digitalización que haya alcanzado en sus procesos, posee datos: en papel, en hojas de cálculo, en ERP’s, en sistemas de gestión de RRHH… El reto a afrontar es cómo captar y modelar esos datos para convertirlos en información útil.

Generación, captación y modelado

A la hora de afrontar un proyecto de datos, pueden diferenciarse tres grandes fases: la generación y/o captación del dato; el análisis y modelado de los datos captados; y la explotación del dato con el fin de convertirlo en información de utilidad.

La complejidad y alcance de cada una de estas fases dependerá directamente de los objetivos de negocio marcados, que a su vez deberán responder y estar alineados a una estrategia empresarial.

  • Generación y/o captura: el primer paso consiste en analizar qué datos existen y están disponibles en la organización. Como resultado, dos posibles acciones: implantar sistemas que sean capaces de facilitar la generación digital de los datos requeridos, e implantar la infraestructura necesaria para realizar una captura continua de estos en tiempo real.
  • Modelado: el siguiente paso es analizar, transformar y estructurar los datos capturados en entidades de negocio con un significado dentro de los procesos de la compañía. Dicho de otro modo, el objetivo es dar forma a esos datos para convertirlos en información de utilidad.
  • Explotación: una vez dispuestos los datos estructurados y listos para su procesamiento, llega el momento de su aprovechamiento para alcanzar las mejoras marcadas. A continuación, se expondrán algunas de las alternativas existentes.

Tres formas de explotar datos, tres modos de mejorar

La eficiencia de un proceso productivo depende directamente de la calidad de las decisiones tomadas, y la eficacia de estas es inversamente proporcional al tiempo invertido en ejecutarlas. El tiempo es oro, y el dato ayuda a optimizarlo. Cada negocio es distinto, y sus objetivos estratégicos inevitablemente varían. No obstante, todos tienen algo en común: la necesidad de mejorar de forma continua.

Mejora de la toma de decisiones a través de datos

Cuadros de mando y tiempo real

El modo de explotación más extendido: el cuadro de mando. A grandes rasgos, el objetivo principal de este tipo de soluciones es mostrar al usuario final información que le ayude, con un simple golpe de vista, a identificar si los procesos, áreas o ámbitos de los que es responsable marchan como deben.

Sin embargo, no por extendida la elaboración de cuadros de mando siempre es bien aplicada. El primer paso para elaborar un buen cuadro de mando es analizar el perfil de usuario al que va destinado y alinear su contenido a la necesidad de aquel. Es necesario huir del exceso de información e “ir al grano”. Sólo de esta forma se alcanzará el objetivo principal: facilitar la toma de decisiones.

Como complemento al requisito anterior, un buen cuadro de mando debe estar alineado a un conjunto de objetivos de negocio y, por ende, ha de representar el estado y la evolución en un período de tiempo específico de KPIs concretos y suficientemente representativos para el perfil al que están destinados. Ello va a permitir asimismo construir cuadros de mando sencillos y visuales que ofrezcan una foto actual del estado de los procesos a golpe de vista.

Por último, y siempre en la medida de lo posible, un buen cuadro de mando debe ofrecer información en estricto tiempo real. Cada día más, es la capacidad de anticipación y la rapidez en la resolución de problemas la que marca la diferencia y mejora la competitividad.

¡Empieza a imaginar tu proyecto!

Te ayudamos a imaginar cómo sería tu proyecto de datos.
Gratis y sin compromiso.

Detección de anomalías en tiempo real

La explotación de datos a través de cuadros de mando proporciona un método eficaz para mostrar al usuario final el estado de sus KPIs de negocio. No obstante se trata de un método pasivo, es decir, es el usuario el que ha de sacar conclusiones a partir de su análisis. ¿Por qué no dar un paso más?

El dato puede tener iniciativa propia, puede ser proactivo y hablar por sí mismo. Sólo hace falta un poco de IA y Big Data para alcanzar modelos inteligentes de detección de anomalías.

Este tipo de sistemas se encargan, en esencia, de analizar continuamente un determinado conjunto de datos con el fin, en primer lugar, de identificar patrones comunes, continuos y persistentes en el tiempo para, en última instancia, detectar si un determinado suceso o comportamiento es anómalo.

Los modelos de detección de anomalías tienen una ventaja sustancial sobre otros modos de explotación de datos: más allá de girar en torno a KPIs predefinidos, desenmascaran posibles problemas o cuellos de botella ocultos.

Modelos inteligentes de autoaprendizaje

Siguiendo la senda de la aplicación de modelos inteligentes, pueden aún darse pasos más allá en relación al uso de datos para la implementación de sistemas que mejoren de forma sustancial los procesos de una organización.

A través del análisis de datos y su procesamiento en combinación con el desarrollo de componentes Machine Learning, pueden implementarse modelos predictivos que ofrezcan estimaciones con un alto grado de fiabilidad sobre parámetros de producción claves para la estrategia empresarial de la organización.

Asimismo, a través de retroalimentación y aprendizaje, dichos modelos pueden alcanzar un alto grado de autonomía a la hora de anticipar errores, anomalías o bloqueos en la ejecución de un proceso de negocio. E incluso, más allá, facilitar la operativa diaria a través de la asistencia automática a la toma de decisión.

En resumen, el ciclo de vida del dato y su poder como motor de mejora de procesos empresariales es tan grande como grandes sean los objetivos marcados. No siempre es necesario abordar proyectos complejos, ni siempre es suficiente con un cuadro de mando. El dato está a disposición de la estrategia, sólo hay que saber aprovecharlo.