Seleccionar página
Trazabilidad y aseguramiento de la calidad con Deep Learning

Trazabilidad y aseguramiento de la calidad con Deep Learning

Trazabilidad y aseguramiento de la calidad con Deep Learning

Big Data | Deep Learning | Smart Factory

El aseguramiento de la trazabilidad o la calidad de los productos es uno de los objetivos más importantes y a veces más complicados de acometer durante el proceso de producción de cualquier compañía.

Desde el punto de vista del análisis de datos, trazar el origen de un producto o determinar su calidad puede expresarse como el grado de similitud que una observación, un producto en este caso, tiene con un grupo de observaciones. En otras palabras, se puede describir el problema como la identificación de patrones en el conjunto de datos y posteriormente la predicción de pertenencia a los conjuntos de las nuevas observaciones.

Deep Learning y un problema de patrones

En los últimos años, multitud de estudios han demostrado que las técnicas de Deep Learning son herramientas poderosas para dar solución al problema del reconocimiento de patrones. Más allá, en este caso de estudio tratemos de contestar a la siguiente pregunta: ¿cómo podríamos aportar una solución a este problema desde el campo de la inteligencia artificial? Como aperitivo, una hoja de ruta central:

  1. Integración de las distintas fuentes de datos relacionadas con el proceso de producción en cuestión.
  2. Generación de información relevante para la toma de decisiones mediante la aplicación de técnicas de inteligencia artificial basadas en tus datos.
  3. Desarrollo de herramientas basadas en inteligencia artificial que asistan en la toma de decisiones en tiempo real.
Las técnicas de deep learning son herramientas poderosas para dar solución al problema del reconocimiento de patrones

Recolecta tus datos de producción

Antes de comenzar, supongamos que una empresa dedicada a la manufactura necesita trazar sus productos o estudiar su calidad. Esta compañía genera una gran cantidad de datos durante la actividad de su proceso de producción y estos datos se encuentran dispersos por toda la organización en distintos sistemas como: ERP, CMS, sistemas IoT, etc.

¿Cómo lo podríamos solucionar? La primera acción que hay que abordar es la extracción, tratamiento y almacenamiento de los datos (ETL en inglés), ya que los datos, por sí solos, no constituyen una fuente de información, sino que es necesario procesarlos para que sean de valor para el desarrollo del negocio. De esta forma, la depuración y correcta estructuración de los datos nos aportará un mayor beneficio en el momento de su análisis y comprensión de la información.

Convierte tus datos en información con Deep Learning

Una vez que los datos han sido procesados y almacenados, ¿cómo obtenemos información de ellos? Las Deep Neural Network (DNN) son una de las mejores herramientas que tenemos para la identificación de patrones sobre conjuntos de datos de gran volumen. Por lo que ahora es el momento de que planteemos una estrategia con la que obtengamos información relevante que nos sirva para tomar decisiones.

Para entrenar una DNN enfocada en el reconocimiento de patrones necesitamos añadir algunas capas que hagan los datos más manejables. En primer lugar podemos construir una capa de generación de embeddings. Esta capa permitiría a la red neuronal transformar vectores de datos de gran tamaño en vectores de dimensiones mucho más bajas codificando el significado de la entrada y generando similitudes semánticas entre vectores con datos similares, lo que haría más fácil el proceso de aprendizaje de la red neuronal.

La siguiente capa por donde pasarían los datos es la extracción de características. Esta es una capa fundamental en las técnicas de deep learning, ya que descubre las características comunes que describen los distintos clústeres o patrones a los que pertenecen los datos.

Y para finalizar, conectaríamos nuestra DNN, de modo que se encargue de aprender a clasificar las distintas observaciones en cada uno de los patrones, obteniendo así la información relevante que estábamos buscando y que describe el comportamiento de nuestros datos.

Convierte tus datos en información con Deep Learning

Intégralo con tu sistema

Sólo falta un paso más. Para convertir la información en conocimiento es necesario que los expertos del sector la completen con su experiencia. Para ello, tenemos que integrar las herramientas de inteligencia artificial con los demás sistemas que intervienen en el proceso de producción.

Las integraciones van desde paneles de control, widgets de información en ERPs y/o CMSs, hasta aplicaciones móviles y web dedicadas. Independientemente de la implementación, hay que tener en cuenta que este es el paso fundamental que permite proporcionar a los expertos en tiempo real la información que les ayude a mejorar los procesos de negocio.

¿Quieres mejorar tus procesos a través de modelos de inteligencia artificial?

Conectores personalizados Power BI, un modo profesional de analítica empresarial

Conectores personalizados Power BI, un modo profesional de analítica empresarial

Conectores personalizados Power BI, un modo profesional de analítica empresarial

Analítica | Datos | Power BI

A estas alturas, (casi) todo el mundo conoce Power BI. Su flujo de funcionamiento a alto nivel es sencillo: conexión contra un origen de datos soportado; carga de los datos extraídos sobre la plataforma Power BI; y transformación y manipulación de los datos cargados para la obtención de información. Y es precisamente en su capacidad de conexión con múltiples orígenes de datos donde reside una de las grandes fortalezas de la herramienta.

Con mayor o menor pericia, la mayoría de analistas o responsables de negocio alguna vez han conectado como origen una hoja Excel, han cargado sus datos y han jugado con ellos para construir informes, gráficos y pequeños cuadros de mando. ¿Dispones de bases de datos MySQL Server? ¿Quizás Microsoft Access? ¿Incluso PDFs? Power BI ofrece de manera nativa conectores para extraer y consumir sus datos en pocos clicks

Pero… ¿qué ocurre si nuestro origen de datos (un sistema corporativo interno, un ERP o cualquier otra aplicación implantada en nuestro negocio) no está soportado por Power BI? Keep Calm & Custom Connectors. Conectores Power BI para analítica profesional a tu alcance.

Power BI proporciona multitud de conectores contra distintas fuentes de datos

Conectores personalizados Power BI, una estrategia

La implementación de Custom Connectors sobre Power BI se lleva a cabo a través de la SDK Power Query, un motor de preparación y transformación de datos. No obstante, más allá de conocimientos sobre el lenguaje de programación, el desarrollo de un conector personalizado requiere de una estrategia que fije los objetivos que se desean alcanzar. Los pasos de dicha estrategia bien pueden ser los siguientes:

  1. Determinar qué origen de datos queremos integrar y, sobre todo, qué datos se quieren obtener de él y a qué necesidad de análisis responden.
  2. Estudiar los posibles modos de comunicación o APIs de los que dispone el origen de datos que queremos integrar.
  3. Analizar el modo de autenticación requerido contra el origen de datos, lo que determinará el nivel de seguridad y conectividad con éste.
  4. Especificar los parámetros que el usuario deberá introducir para recuperar los datos que desee en base a la interfaz de comunicación ofrecida por el origen de datos.
  5. Analizar la estructura de los datos devueltos por la interfaz de comunicación del origen de datos con el fin de estructurarlos adecuadamente para su carga final en Power BI.
  6. Diseñar las transformaciones previas que se han de llevar a cabo para ofrecer al usuario final un conjunto de datos adecuado a su perfil y necesidades.

Una vez marcada la estrategia, ¡manos a la obra!

Conectores Power BI para analítica de datos ¿Necesitas uno para tus sistemas?

La autenticación, un asunto vital

A la hora de implementar un conector personalizado, la autenticación es sin duda uno de los puntos centrales y más relevantes. Determinará, por un lado, de qué forma el conector deberá interactuar con el origen para la obtención de datos. Por otro lado, condicionará qué información y credenciales deberá proporcionar el usuario final y, por ende, de qué permisos de acceso a los datos obtenidos dispondrá.

Como es de suponer, el mecanismo de autenticación a implementar dependerá del origen de datos sobre el cual se quiere llevar a cabo la conexión. Afortunadamente, Power Query pone a disposición del desarrollador múltiples posibilidades, entre las que destacan la autenticación básica con usuario y contraseña y la autenticación vía OAuth2.0. De esta forma, se cubre un amplísimo rango de sistemas y aplicaciones.

Power BI mecanismos de autenticación básicos y OAuth2.0.

En el caso de implementar autenticación básica, Power BI solicitará al usuario sus credenciales de acceso a la plataforma origen para obtener los datos requeridos. En el caso de optar por autenticación OAuth, habrán de implementarse los métodos oportunos en base a la interfaz dispuesta por dicha plataforma origen.

Más fácil con transformaciones y árboles de navegación

Más allá de la autenticación, el otro punto clave a la hora de implementar un conector personalizado es el tratamiento previo sobre los datos extraídos del sistema origen que se ha de realizar para su carga final en Power BI. Este punto vendrá determinado tanto por el formato de los datos retornados por el sistema origen como por la necesidad y perfil del usuario final.

Power Query, a través de su lenguaje de fórmulas M, permite llevar a cabo transformaciones, combinaciones o filtrados de datos que, aplicados en el ámbito del conector personalizado, ofrecen al usuario los datos «precocinados».

No obstante, más allá de dicho procesamiento, Power Query aporta también los denominados árboles de navegación, que facilitan de forma extraordinaria al usuario final la visualización y elección de los conjuntos de datos que desee integrar en Power BI para su tratamiento.

Tabla de navegación Power BI para conjuntos de datos

A modo de conclusión, Power BI aporta mecanismos de extensión suficientes para la integración en los flujos de analítica empresarial de datos procedentes de cualquier sistema o plataforma interna o corporativa, permitiendo así crear un único Data Center personalizado y en tiempo real.

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data | Machine Learning

El tiempo de fabricación de un elemento en una línea de producción es, debido a la naturaleza propia del proceso, un valor que no debe variar demasiado en el tiempo. Sólo debe verse afectado de manera significativa por la aparición de alguna anomalía. Esto lo convierte en un dato idóneo para ser estudiado y analizado como una serie temporal.

Se llevará a cabo un análisis de los tiempos de fabricación de un elemento haciendo uso de modelos de autorregresión. Se empleará concretamente la metodología Box-Jenkins, considerando los siguientes bloques:

  • Estudio de la estructura de la serie, para determinar si se trata de una serie estacionaria, además de chequear la existencia de outliers.
  • Búsqueda de los modelos y parámetros que mejor ajusten la serie, estudiando el ajuste de los modelos ARMA o ARIMA según corresponda y estimando los valores más apropiados para sus parámetros.
  • Validación del modelo seleccionado, llevando a cabo un análisis sobre el ruido blanco explicado por el modelo.
  • Predicción de valores futuros, haciendo uso del modelo seleccionado, así como la detección de valores outliers.

Estudio de la estructura de la serie

La serie está compuesta por un conjunto de observaciones ordenadas de la variable timesheet_incurred, que representa el tiempo de fabricación, en segundos, que se ha consumido en la ejecución de una determinada operación sobre un elemento.

Con una simple descriptiva se observa una gran amplitud en la distribución de los valores, sobre todo teniendo en cuenta la naturaleza de los mismos.

Big Data, anomalías y predicción

En los gráficos de distribución se observa cláramente cómo la variable tiene valores muy dispersos, pero al mismo tiempo concentrados alrededor de los intervalos (0, 1000) y (5000, 7000).

Big Data, anomalías y predicción

En la gráfica de valores se aprecia una clara diferencia en la distribución de los mismos a partir de la observación 109. Esto puede ser debido a un cambio en el proceso de producción que haya afectado cláramente al tiempo de fabricación del elemento.

En la gráfica de valores se observa una clara diferencia en la distribución de los mismos a partir de la observación 109. Esto puede ser debido a un cambio en el proceso de producción que haya afectado cláramente al tiempo de fabricación del elemento.

¿Quieres profundizar más en este experimento de
Big Data, anomalías y predicción?

O visita el caso técnico completo con recursos de código fuente y resultados obtenidos.
Big Data, anomalías y predicción.

Búsqueda de los modelos y parámetros

Existen métodos para la estimación de los parámetros del modelo ARIMA basados en la aplicación de algunos tests, pero quizás el más extendido y fácil de usar es el que consiste en calcular y minimizar el error cuadrático medio obtenido de diferentes combinaciones de los parámetros p, q y d del modelo.

En nuestro ejemplo, probando diferentes valores, se obtiene que la combinación con menor MSE es (4,0,20).

Big Data, anomalías y predicción

Validación del modelo

Para comprobar la validez del modelo se lleva a cabo el análisis de los residuos para determinar si se trata de ruido blanco.

En primer lugar se aplica un test de normalidad sobre los residuos, del cual se desprende que se rechaza la hipótesis de que sigan una distribución normal. Esto es indicativo de que no todo el comportamiento de la serie queda explicado por el modelo. Esto puede ser debido a que la serie sufre muchas anomalías, aunque existe correlación entre los valores.

En segundo lugar, se aplica el test de Durbin-Watson para contrastar la existencia de correlación en los residuos del modelo. El resultado es un valor muy cercano a 2, lo cual indica la NO existencia de correlación en los residuos, por lo que damos el modelo como válido.

Predicción de valores futuros

Haciendo uso del modelo seleccionado se pueden hacer predicciones para los valores próximos de la serie, tal como se observa en el siguiente gráfico.

Big Data, anomalías y predicción

Pero otro beneficio importante de este tipo de análisis sobre una serie temporal es que se puede usar para la detección de anomalías. Haciendo una simple normalización de la serie, se observan outliers dependiendo de la desviación estándar móvil.

Sin embargo, estudiando la desviación entre el valor observado y el valor predicho por el modelo, se pueden detectar anomalías de una manera más sensible que el método anterior. El siguiente gráfico señala anomalías detectadas en aquellos valores cuya desviación con respecto a lo estimado supera la desviación estándar móvil para dicho punto.

Big Data, anomalías y predicción

¿Quieres profundizar más en este experimento?

O visita el caso técnico completo con recursos de código fuente y resultados obtenidos.
Big Data, anomalías y predicción.

Tres formas de explotar datos en tu proceso de digitalización

Tres formas de explotar datos en tu proceso de digitalización

Tres formas de explotar datos en tu proceso de digitalización

Big Data | Industria 4.0 | Transformación digital

El auge de la transformación digital de procesos productivos y de negocio, así como la implantación intensiva de sistemas de información, han abierto una nueva vía de optimización y mejora: el uso de los datos.

De forma apenas perceptible, estos sistemas de información presentes en las organizaciones han acumulado datos y datos que, sin duda, es hora de aprovechar. Existe la tecnología y existen los medios para hacerlo. ¿El siguiente paso? Obtener, a partir de ellos, información que optimice la toma de decisiones en el día a día. Exploremos tres formas de explotar datos.

El dato, actor protagonista en el ciclo de digitalización

Antes de nada, cabe preguntarse qué lugar ocupa el dato en el proceso de transformación digital de las compañías. ¿Qué hay que hacer para “tener” datos? ¿Qué sistemas “crean” los datos? Ante estas dudas frecuentes, cabe preguntarse “cómo” en lugar de “qué”.

Cualquier organización, independientemente del grado de digitalización que haya alcanzado en sus procesos, posee datos: en papel, en hojas de cálculo, en ERP’s, en sistemas de gestión de RRHH… El reto a afrontar es cómo captar y modelar esos datos para convertirlos en información útil.

Generación, captación y modelado

A la hora de afrontar un proyecto de datos, pueden diferenciarse tres grandes fases: la generación y/o captación del dato; el análisis y modelado de los datos captados; y la explotación del dato con el fin de convertirlo en información de utilidad.

La complejidad y alcance de cada una de estas fases dependerá directamente de los objetivos de negocio marcados, que a su vez deberán responder y estar alineados a una estrategia empresarial.

  • Generación y/o captura: el primer paso consiste en analizar qué datos existen y están disponibles en la organización. Como resultado, dos posibles acciones: implantar sistemas que sean capaces de facilitar la generación digital de los datos requeridos, e implantar la infraestructura necesaria para realizar una captura continua de estos en tiempo real.
  • Modelado: el siguiente paso es analizar, transformar y estructurar los datos capturados en entidades de negocio con un significado dentro de los procesos de la compañía. Dicho de otro modo, el objetivo es dar forma a esos datos para convertirlos en información de utilidad.
  • Explotación: una vez dispuestos los datos estructurados y listos para su procesamiento, llega el momento de su aprovechamiento para alcanzar las mejoras marcadas. A continuación, se expondrán algunas de las alternativas existentes.

Tres formas de explotar datos, tres modos de mejorar

La eficiencia de un proceso productivo depende directamente de la calidad de las decisiones tomadas, y la eficacia de estas es inversamente proporcional al tiempo invertido en ejecutarlas. El tiempo es oro, y el dato ayuda a optimizarlo. Cada negocio es distinto, y sus objetivos estratégicos inevitablemente varían. No obstante, todos tienen algo en común: la necesidad de mejorar de forma continua.

Mejora de la toma de decisiones a través de datos

Cuadros de mando y tiempo real

El modo de explotación más extendido: el cuadro de mando. A grandes rasgos, el objetivo principal de este tipo de soluciones es mostrar al usuario final información que le ayude, con un simple golpe de vista, a identificar si los procesos, áreas o ámbitos de los que es responsable marchan como deben.

Sin embargo, no por extendida la elaboración de cuadros de mando siempre es bien aplicada. El primer paso para elaborar un buen cuadro de mando es analizar el perfil de usuario al que va destinado y alinear su contenido a la necesidad de aquel. Es necesario huir del exceso de información e “ir al grano”. Sólo de esta forma se alcanzará el objetivo principal: facilitar la toma de decisiones.

Como complemento al requisito anterior, un buen cuadro de mando debe estar alineado a un conjunto de objetivos de negocio y, por ende, ha de representar el estado y la evolución en un período de tiempo específico de KPIs concretos y suficientemente representativos para el perfil al que están destinados. Ello va a permitir asimismo construir cuadros de mando sencillos y visuales que ofrezcan una foto actual del estado de los procesos a golpe de vista.

Por último, y siempre en la medida de lo posible, un buen cuadro de mando debe ofrecer información en estricto tiempo real. Cada día más, es la capacidad de anticipación y la rapidez en la resolución de problemas la que marca la diferencia y mejora la competitividad.

¡Empieza a imaginar tu proyecto!

Te ayudamos a imaginar cómo sería tu proyecto de datos.
Gratis y sin compromiso.

Detección de anomalías en tiempo real

La explotación de datos a través de cuadros de mando proporciona un método eficaz para mostrar al usuario final el estado de sus KPIs de negocio. No obstante se trata de un método pasivo, es decir, es el usuario el que ha de sacar conclusiones a partir de su análisis. ¿Por qué no dar un paso más?

El dato puede tener iniciativa propia, puede ser proactivo y hablar por sí mismo. Sólo hace falta un poco de IA y Big Data para alcanzar modelos inteligentes de detección de anomalías.

Este tipo de sistemas se encargan, en esencia, de analizar continuamente un determinado conjunto de datos con el fin, en primer lugar, de identificar patrones comunes, continuos y persistentes en el tiempo para, en última instancia, detectar si un determinado suceso o comportamiento es anómalo.

Los modelos de detección de anomalías tienen una ventaja sustancial sobre otros modos de explotación de datos: más allá de girar en torno a KPIs predefinidos, desenmascaran posibles problemas o cuellos de botella ocultos.

Modelos inteligentes de autoaprendizaje

Siguiendo la senda de la aplicación de modelos inteligentes, pueden aún darse pasos más allá en relación al uso de datos para la implementación de sistemas que mejoren de forma sustancial los procesos de una organización.

A través del análisis de datos y su procesamiento en combinación con el desarrollo de componentes Machine Learning, pueden implementarse modelos predictivos que ofrezcan estimaciones con un alto grado de fiabilidad sobre parámetros de producción claves para la estrategia empresarial de la organización.

Asimismo, a través de retroalimentación y aprendizaje, dichos modelos pueden alcanzar un alto grado de autonomía a la hora de anticipar errores, anomalías o bloqueos en la ejecución de un proceso de negocio. E incluso, más allá, facilitar la operativa diaria a través de la asistencia automática a la toma de decisión.

En resumen, el ciclo de vida del dato y su poder como motor de mejora de procesos empresariales es tan grande como grandes sean los objetivos marcados. No siempre es necesario abordar proyectos complejos, ni siempre es suficiente con un cuadro de mando. El dato está a disposición de la estrategia, sólo hay que saber aprovecharlo.

Big Data y su papel en la fábrica del futuro

Big Data y su papel en la fábrica del futuro

Big Data y su papel en la fábrica del futuro

Big Data | Industria 4.0 | Smart Factory
A la hora de pensar en las fábricas del futuro, en ellas tenemos que contar, indiscutiblemente, con una serie de soluciones de última generación. No admite ninguna discusión el hecho de que entre ellas está Big Data. ¿Sabes por qué y cuáles son los requisitos que deben cumplir las plantas del mañana? Acompáñanos en el túnel del tiempo y hagamos un tour por la industria de los próximos años.

Big Data qué es y cómo funciona

El término Big Data lleva ya un tiempo copando buena parte de la información tecnológica. Un concepto que ha ido tomando importancia debido a que cada vez se generan más datos, a mayor velocidad y la tecnología nos permite tener más capacidad para almacenarlos a un precio aceptable, así como para procesarlos y extraer valor de ellos.

Big Data supuso un paso de gigante a la hora de trabajar con esta información, ya que no se podía trabajar con tales cantidades de datos con los métodos tradicionales. Con Big Data se consigue automatizar la recopilación, clasificación, gestión y análisis de toda la información.

Sin duda, Big Data consigue superar algunos de los retos que en un principio se le planteaban. Entre ellos, además de las enormes cantidades de datos, también se encontraba la tipología de estos.

Respecto a esto último, destacar el papel de los datos no estructurados. Es decir, aquellos que no están definidos por un modelo concreto. Para que lo veas más claro, datos estructurados son los multimedia, los correos electrónicos, hojas de cálculo, algunos provenientes de dispositivos IoT, etc. 

Además de estos, las soluciones Big Data también trabajan con datos estructurados – organizados en bases de datos – y semiestructurados, que son un híbrido entre ambos.

Tradicionalmente, Big Data se ha definido por una serie de características que se conocen como las V del Big Data. Estas son: volumen, variedad, velocidad, veracidad, valor.

Para conocer el funcionamiento de Big Data, no es necesario entrar en materia excesivamente técnica y sólo comprensible por expertos. Al menos si sólo quieres tener una visión general del proceso.

En primer lugar, hay que integrar las diversas fuentes de información de las que puedes sacar valor. En el caso de las fábricas del futuro, estos datos provendrán de sensores instalados en las líneas de producción, como los propios del Internet Industrial de las Cosas, así como de dispositivos beacons para el posicionamiento, de resultados de los controles de calidad, anotaciones de los propios trabajadores, etc.

Después habrá que darles en formato correcto y almacenarlos ordenadamente, ya sea en la nube o en un sistema interno propio. Por último, llega el momento del análisis de estos para poder extraer conclusiones que favorezcan la toma de decisiones. Algo que suele conseguirse con la contribución de otras tecnologías especializadas, como las propias de la inteligencia artificial (machine learning, deep learning…).

SIXPHERE - Big Data y fábrica del futuro

La Industria 4.0 y la fábrica del futuro

No cabe duda de que las fábricas del mañana se cimentarán sobre las bases de la Industria 4.0 y de la fábrica inteligente o Smart Factory. ¿Te parece que viajemos en el tiempo (no demasiado) y hagamos una visita a la fábrica del futuro?

Serán varios los aspectos que caracterizarán a las plantas industriales de los próximos años. Entre los más importantes, tenemos:

  • Conexión: la conectividad está por donde quiera que mires, en tu casa, en la calle, mientras viajas en metro y, por supuesto, en tu puesto de trabajo. Las fábricas conectadas permitirán una comunicación más fluida entre departamentos, estimulando el trabajo colaborativo.
  • Automatización: el desarrollo tecnológico permite que los sistemas hagan tareas que hasta entonces requerían de la intervención humana. Muchas de estas acciones apenas aportaban valor. Por lo que en la fábrica del futuro, las personas podrán enfocarse en realizar tareas realmente importantes.
  • Flexibilidad: la capacidad de respuesta es mucho mayor. La producción se adaptará perfectamente a las fluctuaciones de la demanda, así como a cambios inesperados y contingencias varias.
  • Sostenibilidad: el cuidado del medio ambiente es un objetivo común de la sociedad del mañana, y la industria no podía quedarse al margen. La economía circular, el mayor aprovechamiento de los recursos y el uso de energías renovables serán clave para ello.
  • Seguridad: la delicada situación sanitaria por la que estamos pasando ha puesto en evidencia lo importante que es cuidar de la salud del entorno laboral. Para ello se ha dado un gran paso en el desarrollo de soluciones que permiten monitorizar los movimientos realizados y evaluar si se toman medidas como la distancia de seguridad y el uso de mascarillas.
  • Logística avanzada: un aspecto clave para el desarrollo de la actividad industrial son las operaciones logísticas – gestión de almacén, aprovisionamiento, distribución – a lo largo de toda la cadena de suministro. En este sentido, tecnologías como Blockchain han contribuido enormemente a optimizarla.
  • Centrada en el cliente: hoy en día conocemos mejor a nuestros clientes que nunca. Esto nos permite ajustar nuestros productos a lo que realmente desean, así como ofrecerles una atención más personalizada. Todo ello en pro de su mayor satisfacción.

Importancia del análisis de datos y de Big Data en las empresas

Si hay un denominador común en todas estas facetas de la fábrica del futuro, son los datos. Los datos, junto con las personas, son el corazón de la fábrica del futuro. Y es que prácticamente cualquier actividad que tenga lugar generará información valiosa que, gracias a Big Data, no se te escapará.

La analítica de datos te permitirá saber en tiempo real qué está pasando en la planta, aplicando una trazabilidad integral de todos los procesos. Desde que se recibe la materia prima, hasta que el producto final llega al cliente.

Esto te hará mantener los estándares de calidad necesarios y exigidos por las autoridades y por el propio mercado. También te permitirá detectar patrones que harán que te anticipes al futuro. Un claro ejemplo de ello son las técnicas de mantenimiento predictivo.

Desde el punto de vista estrictamente humano, tendrás un conocimiento en profundidad del desempeño de los equipos de trabajo, facilitándote una gestión óptima de ellos. Además, podrás garantizar su salud mediante el control de los contagios.

Respecto a tu relación con proveedores, partners y clientes, se incrementará la confianza y transparencia entre todas las partes implicadas. Estrechando así los lazos de negocio.

En pocas palabras, conseguirás un control y una gestión integral de tu producción como nunca antes habías tenido. 

Aunque hayamos hablado de la fábrica del futuro, bien es cierto que prácticamente podríamos hacerlo de la fábrica del presente. Y es que las empresas que triunfan en su sector ya cuentan con la mayor parte de las características que hemos mencionado.

Si no deseas quedarte atrás, en Sixphere podemos ayudarte ofreciéndote soluciones de digitalización a medida que te harán estar a su misma altura y competir cara a cara. ¿Te ha picado la curiosidad sobre cómo lo hacemos? No te quedes con la intriga y contacta con nosotros para aclarar todas tus dudas. ¡Vamos a por ello!

Trazabilidad y aseguramiento de la calidad con Deep Learning

Trazabilidad y aseguramiento de la calidad con Deep Learning

El aseguramiento de la trazabilidad o la calidad de los productos es uno de los objetivos más importantes y a veces más complicados de acometer durante el proceso de producción de cualquier compañía. Exploremos el papel del Deep Learning en la trazabilidad y el aseguramiento de la calidad.

Conectores personalizados Power BI, un modo profesional de analítica empresarial

Conectores personalizados Power BI, un modo profesional de analítica empresarial

Microsoft Power BI es una herramienta plenamente consolidada en el ámbito de la analítica empresarial de datos. Pero más allá de la conexión, transformación y visualización de datos, aporta altas prestaciones de integración no siempre conocidas. Entre ellas, la posibilidad de extender y personalizar sus orígenes de datos.

Los casos de éxito de Sixphere

¿Quieres conocer qué hacemos y el modo en que lo hacemos? Visita nuestros casos de éxito y pregúntanos todo lo que necesites saber.

El poder de Big Data en las empresas industriales

El poder de Big Data en las empresas industriales

El poder de Big Data en las empresas industriales

Big Data
Todas las empresas de éxito ya lo conocen y usan. Hablamos de Big Data y seguro que lo has oído miles de veces en los últimos años, pero… ¿sabes realmente cómo se aprovecha la industria de esta tecnología? ¿Eres consciente del gran poder que hay dentro de estas 7 letras? Si lees este artículo, tendrás los aspectos de Big Data realmente útiles para tu fábrica inteligente.

Tu fábrica te está hablando, pero no te asustes todo está bien. De hecho, más que bien. Lo hace en forma de datos, y lo hace continuamente. De todo lo que nos dice, mucho te va a hacer la vida más fácil a la hora de gestionar.

Es por ello que no debemos dejar que estas “palabras” se las lleve el viento. Tenemos que retenerlas, procesarlas y decidir en función de lo que nos digan.

La fábrica nos comunica a diario muchísima información, por lo que hay que estar preparados para poder asimilar grandes cantidades de datos. Para conseguirlo, tenemos la tecnología Big Data.

A partir de aquí, vas a conocer todo lo que esta aporta a la industria 4.0, así como su funcionamiento básico y algunos casos prácticos de aplicación. ¿Estás preparado para abrir bien los oídos a tu planta?

¿Qué es Big Data?

Con el término Big Data, hacemos referencia a la tecnología que permite, de manera sistemática, trabajar con grandes conjuntos de datos. Estamos hablando de cantidades de información que no pueden ser procesadas por las herramientas tradicionales. Entre las funcionalidades de Big Data, nos encontramos con:

  • Captura de datos.
  • Almacenamiento.
  • Análisis.
  • Búsqueda.
  • Intercambio.
  • Transferencia.
  • Visualización.
  • Consulta.
  • Actualización.
  • Privacidad de la información.
  • Fuentes de datos.

El concepto de Big Data se basa en 5 pilares básicos:

 

  1. Volumen: la cantidad de datos que se recopilen y almacenen definirán si estamos hablando o no de Big Data.
  2. Variedad: nos referimos a los distintos tipos de datos con los que trabaja Big Data. Anteriormente, se trabajaba con datos estructurados (que tienen un formato fijo) en una base de datos relacional. La proliferación de datos semiestructurados y no estructurados (contenido multimedia, correos electrónicos, etc.) hizo surgir la necesidad de trabajar con ellos y extraer todo su valor.
  3. Velocidad: los datos se van generando continuamente, por lo que es importante resaltar la capacidad de procesarlos en tiempo real.
  4. Veracidad: los datos deben reflejar la realidad de lo que sucede.
  5. Valor: los datos deben ser útiles para los propósitos marcados por los usuarios.
Sixphere - Big Data en industria

¿Cómo funciona Big Data?

No es necesario ser un especialista en tecnología para comprender el funcionamiento de Big Data. Los pasos que conforman el funcionamiento de un sistema Big Data son:

  1. Crear una estrategia: debemos tener muy claro para qué fines queremos implantar Big Data en la empresa. Además, también es importante conocer los recursos con los que contamos y los que necesitaremos.
  2. Escoger las fuentes de datos: estas son muy variadas. Se están creando datos sin parar y debemos seleccionar bien las que generen datos valiosos para la empresa. Entre ellas, tenemos: información proveniente de sensores y dispositivos IIoT, datos abiertos, información de webs y redes sociales, data lakes, etc.
  3. Almacenamiento y gestión de los datos: aquí se encuentran acciones como el acceso fiable, los métodos de integración, el aseguramiento de la calidad de los datos, su control, almacenamiento y preparación para análisis.
  4. Análisis de la información: sacamos valor de los datos, identificando patrones, correlaciones y otras conclusiones útiles y alineadas con nuestra estrategia.
  5. Por último, con todas estas conclusiones, los gestores y responsables toman decisiones acertadas de gestión.

Ventajas de aplicar Big Data en empresas industriales

Cuando estamos en entornos industriales, la información que se genera en cada uno de los procesos es inmensa. Además, esta no para de “fabricarse” mientras haya actividad. Esto, en muchas plantas, se realiza durante las 24 horas del día, los 365 (o 366) días del año.

Por tanto, la opción de detectar oportunidades para la mejora de los procesos es permanente. Y, por supuesto, es aplicable a todos los componentes de la cadena de suministro – desde materias primas, hasta el producto terminado-.

En líneas generales, podemos decir que la aplicación de Big Data en industrias optimiza los procesos, mejorando la productividad, la calidad de los productos y ampliando los márgenes de beneficios.

¿Cómo conseguimos esto? Una de las claves consiste en sensorizar los puntos críticos de la planta. Estos sensores son de diferente naturaleza en función de las variables que queramos medir:

  • Medidores de temperatura.
  • Manómetros.
  • Sensores para la medición de los niveles de humedad.
  • Medidores de la velocidad de fabricación de una pieza.
  • Consumo energético.
  • Geolocalización mediante beacons u otras tecnologías.
  • Etc.

Más allá de pensar en las líneas de fabricación, Big Data en industrias también es aplicable a otros aspectos más genéricos de cualquier empresa. Por ejemplo, se pueden analizar los comentarios de usuarios de redes sociales o de los emails recibidos. De esta forma, se pueden afinar las estrategias de marketing y ventas.

Aplicaciones de Big Data en la industria

Big Data es una tecnología muy versátil, por lo que pueden sacar provecho de ella muchas áreas de una empresa industrial. Sus aplicaciones más destacadas son:

  • Logística y transporte.
  • Procesos de producción.
  • Control de calidad.
  • Conocer tendencias de mercado.
  • Gestión de recursos humanos.
  • Ciberseguridad.
  • Optimización del consumo energético.

Big Data en la logística y transporte

El incremento del tráfico en carreteras, la mayor deslocalización de los almacenes, las fluctuaciones del precio de los combustibles, la internacionalización empresarial y el auge del comercio electrónico, son tendencias logísticas sobre las que Big Data interviene.

Aquí, los sistemas Big Data trabajan con información obtenida de los GPS de los vehículos, de los datos de tráfico de las instituciones oficiales, datos de movilidad de personas y materiales en almacenes, información de abastecimiento del producto por parte de los clientes, etc.

Sixphere - Big Data en la industria

Big Data en los procesos de producción

Dentro de las propias acciones de fabricación, el análisis de datos es clave para, por ejemplo, evitar que aparezcan fallos mecánicos en la maquinaria. En este caso, se combina la tecnología Big Data con la inteligencia artificial para dar forma al mantenimiento predictivo.

De esta forma, podremos anticiparnos a la aparición de fallos críticos. Unos fallos que pueden paralizar el trabajo o crear productos defectuosos, sin ningún valor y que generen importantes pérdidas económicas.

Big Data en el control de calidad

Además de estudiar la maquinaria y los sistemas implicados en la producción, también debemos monitorizar el estado del propio producto. No solamente nos estamos refiriendo al producto final, sino también a las materias primas y a los productos intermedios.

Además de contar con sensores como los que hemos mencionado, en el ámbito del control de la calidad también se puede hacer uso de imágenes reales captadas por cámaras. Estos dispositivos son capaces de recoger muchas imágenes en poco tiempo, las cuales se analizan con inteligencia artificial.

De esta forma, se pueden cribar productos en función de criterios de calidad. Con ello, se descartarán o se destinarán a otros fines. Por ejemplo, en función del grado de maduración de una fruta, esta podrá ser envasada o enviada para hacer zumo.

Big Data para conocer tendencias de mercado

El sector industrial se ve muy afectado por los altibajos de la demanda. Esto recientemente se ha visto muy claro con la crisis sanitaria. Por ejemplo, la demanda en el sector farmacéutico se ha multiplicado en estos meses; otra muestra está en el sector agroalimentario, donde decidir el momento de recolecta es clave para obtener el máximo beneficio.

Para controlar estas tendencias, necesitamos trabajar con datos históricos, factores sociales, económicos, medioambientales, políticos y de otros muchos tipos.

Big Data para gestión de recursos humanos

Esta tecnología se emplea para diversas facetas de los recursos humanos. Desde la selección de los candidatos más idóneos, hasta conseguir una gestión perfeccionada del personal y hacer que los trabajadores se sientan cómodos en sus puestos, reduciendo la rotación.

Un ejemplo lo tenemos en Amazon. Mediante su programa “Amazon Connections”, que colecciona a diario y en tiempo real información a partir de breves preguntas a sus empleados. Otra muestra la tenemos en la tecnológica Xerox, que consiguió reducir la tasa de rotación de personal en un 20%.

Big Data para ciberseguridad

Muchas industrias trabajan con productos y procesos realmente innovadores, por lo que no quieren que nadie robe sus secretos. Por otra parte, un ciberataque podría paralizar toda su actividad. De aquí que surja una necesidad imperiosa de protección frente a los ciberdelincuentes.

Aquí también debemos considerar el trabajo conjunto de Big Data con la tecnología Cloud Computing, ya que en la mayoría de ocasiones la información se encuentra alojada en la nube. Los sistemas Big Data analizan toda la información que se recolecta, buscando posibles vulnerabilidades e irregularidades.

Big Data para optimizar el consumo energético

Hornos, cámaras frigoríficas, maquinaria de muchas clases, sistemas de climatización… todo ello funcionando sin parar. ¿Te imaginas la factura de la luz? Controlar el gasto eléctrico en un entorno industrial no es poca cosa. Por suerte, Big Data también puede echar una mano aquí.

Para conseguirlo, entra en escena el concepto de red inteligente o smart grid. Estas trabajan con sensores IoT distribuidos que consiguen los datos de consumo para el sistema Big Data.

Éste último trabaja conjuntamente con inteligencia artificial. Con todo esto, se monitoriza en tiempo real el consumo eléctrico, de manera que el suministro se ajusta a la demanda. Un equilibrio que abarata el gasto eléctrico.

Sixphere - Big Data y consumo eléctrico

Herramientas para la aplicación de Big Data en empresas industriales

Vale, Big Data es actualmente muy necesario en la industria, pero… ¿cómo lo aplico?, ¿por dónde empiezo? Hacerse este tipo de preguntas es lo más natural del mundo, una vez que sabemos que debemos contar con esta tecnología.

Para que esto no suponga un continuo dolor de cabeza a los gestores industriales, en Sixphere contamos con soluciones que explotan todo el potencial de los ingentes datos que una fábrica origina.

En primer lugar, podemos hablar de Polaris Industry, que integra tecnologías como Machine Learning, IIoT y Big Data, entre otras. Polaris Industry está formada por una arquitectura de 5 capas:

  • Iot & Proximity.
  • Core.
  • Business Services.
  • Data Engine.
  • Smart Cloud Factory.

Como ves, una de estas capas recibe el nombre de Data Engine. Se trata de una capa transversal a otras y que recopila, estructura y procesa datos, por lo que Big Data es imprescindible para su funcionamiento.

Polaris también tiene un módulo especialmente desarrollado para el entorno agroganadero, que recibe el nombre de Polaris Farm. Éste se adapta a las condiciones específicas del sector, sobre todo por su carácter al aire libre.

De esta forma, se tiene un mayor control tanto de los cultivos como de las cabezas de ganado. Polaris Farm está en proceso de desarrollo impulsado por nuestro avance en el proyecto europeo DIVA, orientado a la transformación digital del sector agroalimentario.

Tampoco debemos dejar atrás nuestro producto Polaris Tx, destinado a la digitalización de la cadena de suministro. Con Polaris Tx, todos los miembros de la cadena estarán informados en tiempo real de todo lo que ocurre en la producción. Así pueden mejorar la gestión, a la vez que se les aporta seguridad y privacidad.

Como has podido ver, Big Data es imprescindible en cualquier empresa industrial que quiera seguir creciendo. Su adaptabilidad, sumada a los resultados que proporciona, son los responsables de ello.

Para hacer más sencillo este paso, y hacer la planta aún más inteligente, en Sixphere contamos con soluciones que saben escuchar a tu fábrica y comprender todo lo que nos dice y que sea relevante. ¿Vas a seguir haciéndole oídos sordos?

Trazabilidad y aseguramiento de la calidad con Deep Learning

Trazabilidad y aseguramiento de la calidad con Deep Learning

El aseguramiento de la trazabilidad o la calidad de los productos es uno de los objetivos más importantes y a veces más complicados de acometer durante el proceso de producción de cualquier compañía. Exploremos el papel del Deep Learning en la trazabilidad y el aseguramiento de la calidad.

Conectores personalizados Power BI, un modo profesional de analítica empresarial

Conectores personalizados Power BI, un modo profesional de analítica empresarial

Microsoft Power BI es una herramienta plenamente consolidada en el ámbito de la analítica empresarial de datos. Pero más allá de la conexión, transformación y visualización de datos, aporta altas prestaciones de integración no siempre conocidas. Entre ellas, la posibilidad de extender y personalizar sus orígenes de datos.

Los casos de éxito de Sixphere

¿Quieres conocer qué hacemos y el modo en que lo hacemos? Visita nuestros casos de éxito y pregúntanos todo lo que necesites saber.