Seleccionar página
El papel de la protección de datos en tiempos de teletrabajo

El papel de la protección de datos en tiempos de teletrabajo

El papel de la protección de datos en tiempos de teletrabajo

Privacidad | Protección de datos | Seguridad | Teletrabajo

El teletrabajo y la protección de datos en los tiempos que corren deben ir de la mano. Desde la incorporación masiva del teletrabajo en nuestras vidas, se ha configurado un nuevo escenario de riesgos en materia de seguridad y protección de datos personales que ha de gestionarse de una manera adecuada para garantizar la integridad y privacidad de los distintos actores de acuerdo a las leyes vigentes al respecto.

Para desempeñar el trabajo diario en cualquier puesto de trabajo, independientemente de su localización, se necesita acceder a datos personales que deben estar protegidos. Estos datos van desde nombres, números de teléfono o direcciones, hasta cuentas bancarias o información fiscal, y engloban tanto al personal de la empresa como a clientes y proveedores.

En absolutamente todos los casos descritos, deben aplicarse una serie de medidas que reglen y asienten el papel de la protección de datos en el teletrabajo.

Postura de la AEPD y primeras medidas a adoptar

Numerosas son las medidas que se pueden aplicar para mantener la seguridad y protección de los equipos informáticos y dispositivos y, consecuentemente, de los datos que puedan albergar. La Agencia Española de Protección de Datos es uno de los primeros organismos que se ha pronunciado con respecto a este tema, exponiendo a través de recomendaciones unas series de medidas a tener en cuenta.

Estas recomendaciones aparecen divididas en medidas y buenas prácticas dirigidas tanto a los responsables del tratamiento de los datos, como al personal que participa en las operaciones sobre dicho tratamiento y manipulación.

A modo de resumen, con respecto a las recomendaciones dirigidas a responsables del tratamiento, la AEPD aconseja definir una política de protección de la información para situaciones de movilidad que recoja las formas de acceso remoto que se permiten, o las responsabilidades y obligaciones que asumen las personas empleadas.

Otras recomendaciones destacables por la AEPD en este sentido son la adopción de soluciones y la elección de prestadores de servicios confiables y con garantías, que eviten en todo momento la exposición de los datos personales y aseguren la restricción del acceso a la información.

Medidas que se pueden aplicar para mantener la seguridad y protección de los equipos informáticos

Configuración periódica de equipos y dispositivos digitales

Configurar periódicamente los equipos y dispositivos utilizados asegurando su actualización, o monitorizar los accesos a la red corporativa y gestionar racionalmente la protección de datos y la seguridad, cierran las seis recomendaciones dirigidas a los responsables del tratamiento de datos en las empresas.

Con respecto a las recomendaciones dirigidas al personal que participa en las operaciones de tratamiento, la AEPD recomienda:

  • Respetar la política de protección de la información en situaciones de movilidad definida por el responsable.
  • Proteger el dispositivo utilizado en movilidad y el acceso al mismo, utilizando contraseñas de acceso robustas o evitando la conexión de los dispositivos a la red corporativa desde lugares públicos.
  • Garantizar la protección de la información que se está manejando no dejando a la vista ningún soporte de información en el lugar donde se desarrolle el teletrabajo, bloqueando las sesiones de los dispositivos cuando estos estén desatendidos o evitando exponer la pantalla a la mirada de terceros.
  • Guardar la información en los espacios de red habilitados haciendo uso de los recursos de almacenamiento compartidos o en la nube proporcionados por la organización.
  • Comunicar, si hay sospecha de que la información ha podido verse comprometida y con carácter inmediato, la brecha de seguridad a la persona responsable en cuestión.

La postura del CCN sobre videoconferencias y reuniones virtuales

Otro de los organismos que también se ha pronunciado sobre la privacidad de los datos en el teletrabajo es el Centro Criptológico Nacional. El CCN recopila pormenorizadamente una serie de recomendaciones que van desde la protección y seguridad de los datos en videoconferencias y reuniones virtuales, hasta las soluciones técnicas de acceso remoto seguro, destacando un informe recogido en dos anexos en los que se detalla cada una de las dos soluciones propuestas: la nube o sistemas locales (on-premise).

Desde el prisma que nos ocupa, considerando la situación actual y entendiendo la importancia que subyace tras la protección de datos, todos estos mecanismos deberán ayudarnos a desempeñar nuestro trabajo en remoto de una forma segura, garantizando en todo momento la protección y la intimidad de todos los actores implicados.

En Sixphere trabajamos de manera remota desde su fundación, apostando por el teletrabajo como medida principal de conciliación entre la vida laboral y personal. Y, por supuesto, somos conscientes del importante papel de la protección de datos en el teletrabajo. A este respecto, son numerosas las medidas implantadas y constantes las adaptaciones realizadas sobre ellas, basadas en las necesidades de nuestro equipo, nuestros clientes y nuestros proveedores y, por supuesto, alineadas con las leyes vigentes.

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data | Machine Learning

El tiempo de fabricación de un elemento en una línea de producción es, debido a la naturaleza propia del proceso, un valor que no debe variar demasiado en el tiempo. Sólo debe verse afectado de manera significativa por la aparición de alguna anomalía. Esto lo convierte en un dato idóneo para ser estudiado y analizado como una serie temporal.

Se llevará a cabo un análisis de los tiempos de fabricación de un elemento haciendo uso de modelos de autorregresión. Se empleará concretamente la metodología Box-Jenkins, considerando los siguientes bloques:

  • Estudio de la estructura de la serie, para determinar si se trata de una serie estacionaria, además de chequear la existencia de outliers.
  • Búsqueda de los modelos y parámetros que mejor ajusten la serie, estudiando el ajuste de los modelos ARMA o ARIMA según corresponda y estimando los valores más apropiados para sus parámetros.
  • Validación del modelo seleccionado, llevando a cabo un análisis sobre el ruido blanco explicado por el modelo.
  • Predicción de valores futuros, haciendo uso del modelo seleccionado, así como la detección de valores outliers.

Estudio de la estructura de la serie

La serie está compuesta por un conjunto de observaciones ordenadas de la variable timesheet_incurred, que representa el tiempo de fabricación, en segundos, que se ha consumido en la ejecución de una determinada operación sobre un elemento.

Con una simple descriptiva se observa una gran amplitud en la distribución de los valores, sobre todo teniendo en cuenta la naturaleza de los mismos.

Big Data, anomalías y predicción

En los gráficos de distribución se observa cláramente cómo la variable tiene valores muy dispersos, pero al mismo tiempo concentrados alrededor de los intervalos (0, 1000) y (5000, 7000).

Big Data, anomalías y predicción

En la gráfica de valores se aprecia una clara diferencia en la distribución de los mismos a partir de la observación 109. Esto puede ser debido a un cambio en el proceso de producción que haya afectado cláramente al tiempo de fabricación del elemento.

En la gráfica de valores se observa una clara diferencia en la distribución de los mismos a partir de la observación 109. Esto puede ser debido a un cambio en el proceso de producción que haya afectado cláramente al tiempo de fabricación del elemento.

¿Quieres profundizar más en este experimento de
Big Data, anomalías y predicción?

O visita el caso técnico completo con recursos de código fuente y resultados obtenidos.
Big Data, anomalías y predicción.

Búsqueda de los modelos y parámetros

Existen métodos para la estimación de los parámetros del modelo ARIMA basados en la aplicación de algunos tests, pero quizás el más extendido y fácil de usar es el que consiste en calcular y minimizar el error cuadrático medio obtenido de diferentes combinaciones de los parámetros p, q y d del modelo.

En nuestro ejemplo, probando diferentes valores, se obtiene que la combinación con menor MSE es (4,0,20).

Big Data, anomalías y predicción

Validación del modelo

Para comprobar la validez del modelo se lleva a cabo el análisis de los residuos para determinar si se trata de ruido blanco.

En primer lugar se aplica un test de normalidad sobre los residuos, del cual se desprende que se rechaza la hipótesis de que sigan una distribución normal. Esto es indicativo de que no todo el comportamiento de la serie queda explicado por el modelo. Esto puede ser debido a que la serie sufre muchas anomalías, aunque existe correlación entre los valores.

En segundo lugar, se aplica el test de Durbin-Watson para contrastar la existencia de correlación en los residuos del modelo. El resultado es un valor muy cercano a 2, lo cual indica la NO existencia de correlación en los residuos, por lo que damos el modelo como válido.

Predicción de valores futuros

Haciendo uso del modelo seleccionado se pueden hacer predicciones para los valores próximos de la serie, tal como se observa en el siguiente gráfico.

Big Data, anomalías y predicción

Pero otro beneficio importante de este tipo de análisis sobre una serie temporal es que se puede usar para la detección de anomalías. Haciendo una simple normalización de la serie, se observan outliers dependiendo de la desviación estándar móvil.

Sin embargo, estudiando la desviación entre el valor observado y el valor predicho por el modelo, se pueden detectar anomalías de una manera más sensible que el método anterior. El siguiente gráfico señala anomalías detectadas en aquellos valores cuya desviación con respecto a lo estimado supera la desviación estándar móvil para dicho punto.

Big Data, anomalías y predicción

¿Quieres profundizar más en este experimento?

O visita el caso técnico completo con recursos de código fuente y resultados obtenidos.
Big Data, anomalías y predicción.

Tres formas de explotar datos en tu proceso de digitalización

Tres formas de explotar datos en tu proceso de digitalización

Tres formas de explotar datos en tu proceso de digitalización

Big Data | Industria 4.0 | Transformación digital

El auge de la transformación digital de procesos productivos y de negocio, así como la implantación intensiva de sistemas de información, han abierto una nueva vía de optimización y mejora: el uso de los datos.

De forma apenas perceptible, estos sistemas de información presentes en las organizaciones han acumulado datos y datos que, sin duda, es hora de aprovechar. Existe la tecnología y existen los medios para hacerlo. ¿El siguiente paso? Obtener, a partir de ellos, información que optimice la toma de decisiones en el día a día. Exploremos tres formas de explotar datos.

El dato, actor protagonista en el ciclo de digitalización

Antes de nada, cabe preguntarse qué lugar ocupa el dato en el proceso de transformación digital de las compañías. ¿Qué hay que hacer para “tener” datos? ¿Qué sistemas “crean” los datos? Ante estas dudas frecuentes, cabe preguntarse “cómo” en lugar de “qué”.

Cualquier organización, independientemente del grado de digitalización que haya alcanzado en sus procesos, posee datos: en papel, en hojas de cálculo, en ERP’s, en sistemas de gestión de RRHH… El reto a afrontar es cómo captar y modelar esos datos para convertirlos en información útil.

Generación, captación y modelado

A la hora de afrontar un proyecto de datos, pueden diferenciarse tres grandes fases: la generación y/o captación del dato; el análisis y modelado de los datos captados; y la explotación del dato con el fin de convertirlo en información de utilidad.

La complejidad y alcance de cada una de estas fases dependerá directamente de los objetivos de negocio marcados, que a su vez deberán responder y estar alineados a una estrategia empresarial.

  • Generación y/o captura: el primer paso consiste en analizar qué datos existen y están disponibles en la organización. Como resultado, dos posibles acciones: implantar sistemas que sean capaces de facilitar la generación digital de los datos requeridos, e implantar la infraestructura necesaria para realizar una captura continua de estos en tiempo real.
  • Modelado: el siguiente paso es analizar, transformar y estructurar los datos capturados en entidades de negocio con un significado dentro de los procesos de la compañía. Dicho de otro modo, el objetivo es dar forma a esos datos para convertirlos en información de utilidad.
  • Explotación: una vez dispuestos los datos estructurados y listos para su procesamiento, llega el momento de su aprovechamiento para alcanzar las mejoras marcadas. A continuación, se expondrán algunas de las alternativas existentes.

Tres formas de explotar datos, tres modos de mejorar

La eficiencia de un proceso productivo depende directamente de la calidad de las decisiones tomadas, y la eficacia de estas es inversamente proporcional al tiempo invertido en ejecutarlas. El tiempo es oro, y el dato ayuda a optimizarlo. Cada negocio es distinto, y sus objetivos estratégicos inevitablemente varían. No obstante, todos tienen algo en común: la necesidad de mejorar de forma continua.

Mejora de la toma de decisiones a través de datos

Cuadros de mando y tiempo real

El modo de explotación más extendido: el cuadro de mando. A grandes rasgos, el objetivo principal de este tipo de soluciones es mostrar al usuario final información que le ayude, con un simple golpe de vista, a identificar si los procesos, áreas o ámbitos de los que es responsable marchan como deben.

Sin embargo, no por extendida la elaboración de cuadros de mando siempre es bien aplicada. El primer paso para elaborar un buen cuadro de mando es analizar el perfil de usuario al que va destinado y alinear su contenido a la necesidad de aquel. Es necesario huir del exceso de información e “ir al grano”. Sólo de esta forma se alcanzará el objetivo principal: facilitar la toma de decisiones.

Como complemento al requisito anterior, un buen cuadro de mando debe estar alineado a un conjunto de objetivos de negocio y, por ende, ha de representar el estado y la evolución en un período de tiempo específico de KPIs concretos y suficientemente representativos para el perfil al que están destinados. Ello va a permitir asimismo construir cuadros de mando sencillos y visuales que ofrezcan una foto actual del estado de los procesos a golpe de vista.

Por último, y siempre en la medida de lo posible, un buen cuadro de mando debe ofrecer información en estricto tiempo real. Cada día más, es la capacidad de anticipación y la rapidez en la resolución de problemas la que marca la diferencia y mejora la competitividad.

¡Empieza a imaginar tu proyecto!

Te ayudamos a imaginar cómo sería tu proyecto de datos.
Gratis y sin compromiso.

Detección de anomalías en tiempo real

La explotación de datos a través de cuadros de mando proporciona un método eficaz para mostrar al usuario final el estado de sus KPIs de negocio. No obstante se trata de un método pasivo, es decir, es el usuario el que ha de sacar conclusiones a partir de su análisis. ¿Por qué no dar un paso más?

El dato puede tener iniciativa propia, puede ser proactivo y hablar por sí mismo. Sólo hace falta un poco de IA y Big Data para alcanzar modelos inteligentes de detección de anomalías.

Este tipo de sistemas se encargan, en esencia, de analizar continuamente un determinado conjunto de datos con el fin, en primer lugar, de identificar patrones comunes, continuos y persistentes en el tiempo para, en última instancia, detectar si un determinado suceso o comportamiento es anómalo.

Los modelos de detección de anomalías tienen una ventaja sustancial sobre otros modos de explotación de datos: más allá de girar en torno a KPIs predefinidos, desenmascaran posibles problemas o cuellos de botella ocultos.

Modelos inteligentes de autoaprendizaje

Siguiendo la senda de la aplicación de modelos inteligentes, pueden aún darse pasos más allá en relación al uso de datos para la implementación de sistemas que mejoren de forma sustancial los procesos de una organización.

A través del análisis de datos y su procesamiento en combinación con el desarrollo de componentes Machine Learning, pueden implementarse modelos predictivos que ofrezcan estimaciones con un alto grado de fiabilidad sobre parámetros de producción claves para la estrategia empresarial de la organización.

Asimismo, a través de retroalimentación y aprendizaje, dichos modelos pueden alcanzar un alto grado de autonomía a la hora de anticipar errores, anomalías o bloqueos en la ejecución de un proceso de negocio. E incluso, más allá, facilitar la operativa diaria a través de la asistencia automática a la toma de decisión.

En resumen, el ciclo de vida del dato y su poder como motor de mejora de procesos empresariales es tan grande como grandes sean los objetivos marcados. No siempre es necesario abordar proyectos complejos, ni siempre es suficiente con un cuadro de mando. El dato está a disposición de la estrategia, sólo hay que saber aprovecharlo.

Big Data y su papel en la fábrica del futuro

Big Data y su papel en la fábrica del futuro

Big Data y su papel en la fábrica del futuro

Big Data | Industria 4.0 | Smart Factory
A la hora de pensar en las fábricas del futuro, en ellas tenemos que contar, indiscutiblemente, con una serie de soluciones de última generación. No admite ninguna discusión el hecho de que entre ellas está Big Data. ¿Sabes por qué y cuáles son los requisitos que deben cumplir las plantas del mañana? Acompáñanos en el túnel del tiempo y hagamos un tour por la industria de los próximos años.

Big Data qué es y cómo funciona

El término Big Data lleva ya un tiempo copando buena parte de la información tecnológica. Un concepto que ha ido tomando importancia debido a que cada vez se generan más datos, a mayor velocidad y la tecnología nos permite tener más capacidad para almacenarlos a un precio aceptable, así como para procesarlos y extraer valor de ellos.

Big Data supuso un paso de gigante a la hora de trabajar con esta información, ya que no se podía trabajar con tales cantidades de datos con los métodos tradicionales. Con Big Data se consigue automatizar la recopilación, clasificación, gestión y análisis de toda la información.

Sin duda, Big Data consigue superar algunos de los retos que en un principio se le planteaban. Entre ellos, además de las enormes cantidades de datos, también se encontraba la tipología de estos.

Respecto a esto último, destacar el papel de los datos no estructurados. Es decir, aquellos que no están definidos por un modelo concreto. Para que lo veas más claro, datos estructurados son los multimedia, los correos electrónicos, hojas de cálculo, algunos provenientes de dispositivos IoT, etc. 

Además de estos, las soluciones Big Data también trabajan con datos estructurados – organizados en bases de datos – y semiestructurados, que son un híbrido entre ambos.

Tradicionalmente, Big Data se ha definido por una serie de características que se conocen como las V del Big Data. Estas son: volumen, variedad, velocidad, veracidad, valor.

Para conocer el funcionamiento de Big Data, no es necesario entrar en materia excesivamente técnica y sólo comprensible por expertos. Al menos si sólo quieres tener una visión general del proceso.

En primer lugar, hay que integrar las diversas fuentes de información de las que puedes sacar valor. En el caso de las fábricas del futuro, estos datos provendrán de sensores instalados en las líneas de producción, como los propios del Internet Industrial de las Cosas, así como de dispositivos beacons para el posicionamiento, de resultados de los controles de calidad, anotaciones de los propios trabajadores, etc.

Después habrá que darles en formato correcto y almacenarlos ordenadamente, ya sea en la nube o en un sistema interno propio. Por último, llega el momento del análisis de estos para poder extraer conclusiones que favorezcan la toma de decisiones. Algo que suele conseguirse con la contribución de otras tecnologías especializadas, como las propias de la inteligencia artificial (machine learning, deep learning…).

SIXPHERE - Big Data y fábrica del futuro

La Industria 4.0 y la fábrica del futuro

No cabe duda de que las fábricas del mañana se cimentarán sobre las bases de la Industria 4.0 y de la fábrica inteligente o Smart Factory. ¿Te parece que viajemos en el tiempo (no demasiado) y hagamos una visita a la fábrica del futuro?

Serán varios los aspectos que caracterizarán a las plantas industriales de los próximos años. Entre los más importantes, tenemos:

  • Conexión: la conectividad está por donde quiera que mires, en tu casa, en la calle, mientras viajas en metro y, por supuesto, en tu puesto de trabajo. Las fábricas conectadas permitirán una comunicación más fluida entre departamentos, estimulando el trabajo colaborativo.
  • Automatización: el desarrollo tecnológico permite que los sistemas hagan tareas que hasta entonces requerían de la intervención humana. Muchas de estas acciones apenas aportaban valor. Por lo que en la fábrica del futuro, las personas podrán enfocarse en realizar tareas realmente importantes.
  • Flexibilidad: la capacidad de respuesta es mucho mayor. La producción se adaptará perfectamente a las fluctuaciones de la demanda, así como a cambios inesperados y contingencias varias.
  • Sostenibilidad: el cuidado del medio ambiente es un objetivo común de la sociedad del mañana, y la industria no podía quedarse al margen. La economía circular, el mayor aprovechamiento de los recursos y el uso de energías renovables serán clave para ello.
  • Seguridad: la delicada situación sanitaria por la que estamos pasando ha puesto en evidencia lo importante que es cuidar de la salud del entorno laboral. Para ello se ha dado un gran paso en el desarrollo de soluciones que permiten monitorizar los movimientos realizados y evaluar si se toman medidas como la distancia de seguridad y el uso de mascarillas.
  • Logística avanzada: un aspecto clave para el desarrollo de la actividad industrial son las operaciones logísticas – gestión de almacén, aprovisionamiento, distribución – a lo largo de toda la cadena de suministro. En este sentido, tecnologías como Blockchain han contribuido enormemente a optimizarla.
  • Centrada en el cliente: hoy en día conocemos mejor a nuestros clientes que nunca. Esto nos permite ajustar nuestros productos a lo que realmente desean, así como ofrecerles una atención más personalizada. Todo ello en pro de su mayor satisfacción.

Importancia del análisis de datos y de Big Data en las empresas

Si hay un denominador común en todas estas facetas de la fábrica del futuro, son los datos. Los datos, junto con las personas, son el corazón de la fábrica del futuro. Y es que prácticamente cualquier actividad que tenga lugar generará información valiosa que, gracias a Big Data, no se te escapará.

La analítica de datos te permitirá saber en tiempo real qué está pasando en la planta, aplicando una trazabilidad integral de todos los procesos. Desde que se recibe la materia prima, hasta que el producto final llega al cliente.

Esto te hará mantener los estándares de calidad necesarios y exigidos por las autoridades y por el propio mercado. También te permitirá detectar patrones que harán que te anticipes al futuro. Un claro ejemplo de ello son las técnicas de mantenimiento predictivo.

Desde el punto de vista estrictamente humano, tendrás un conocimiento en profundidad del desempeño de los equipos de trabajo, facilitándote una gestión óptima de ellos. Además, podrás garantizar su salud mediante el control de los contagios.

Respecto a tu relación con proveedores, partners y clientes, se incrementará la confianza y transparencia entre todas las partes implicadas. Estrechando así los lazos de negocio.

En pocas palabras, conseguirás un control y una gestión integral de tu producción como nunca antes habías tenido. 

Aunque hayamos hablado de la fábrica del futuro, bien es cierto que prácticamente podríamos hacerlo de la fábrica del presente. Y es que las empresas que triunfan en su sector ya cuentan con la mayor parte de las características que hemos mencionado.

Si no deseas quedarte atrás, en Sixphere podemos ayudarte ofreciéndote soluciones de digitalización a medida que te harán estar a su misma altura y competir cara a cara. ¿Te ha picado la curiosidad sobre cómo lo hacemos? No te quedes con la intriga y contacta con nosotros para aclarar todas tus dudas. ¡Vamos a por ello!

El papel de la protección de datos en tiempos de teletrabajo

El papel de la protección de datos en tiempos de teletrabajo

Desde la incorporación masiva del teletrabajo, se ha conformado un nuevo escenario de riesgos en materia de seguridad y protección de datos que exige por parte de las empresas una gestión adecuada que garantice su integridad de acuerdo a las leyes vigentes. Hablemos sobre el papel de la protección de datos en el teletrabajo.

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data, anomalías y predicción: análisis de una serie temporal

La determinación del tiempo de fabricación de un elemento en una línea de producción es clave para la optimización de los procesos asociados. Pero, ¿cómo puede calcularse? A continuación, un ejemplo práctico y técnico a través del uso y explotación de datos.

Los casos de éxito de Sixphere

¿Quieres conocer qué hacemos y el modo en que lo hacemos? Visita nuestros casos de éxito y pregúntanos todo lo que necesites saber.

El poder de Big Data en las empresas industriales

El poder de Big Data en las empresas industriales

El poder de Big Data en las empresas industriales

Big Data
Todas las empresas de éxito ya lo conocen y usan. Hablamos de Big Data y seguro que lo has oído miles de veces en los últimos años, pero… ¿sabes realmente cómo se aprovecha la industria de esta tecnología? ¿Eres consciente del gran poder que hay dentro de estas 7 letras? Si lees este artículo, tendrás los aspectos de Big Data realmente útiles para tu fábrica inteligente.

Tu fábrica te está hablando, pero no te asustes todo está bien. De hecho, más que bien. Lo hace en forma de datos, y lo hace continuamente. De todo lo que nos dice, mucho te va a hacer la vida más fácil a la hora de gestionar.

Es por ello que no debemos dejar que estas “palabras” se las lleve el viento. Tenemos que retenerlas, procesarlas y decidir en función de lo que nos digan.

La fábrica nos comunica a diario muchísima información, por lo que hay que estar preparados para poder asimilar grandes cantidades de datos. Para conseguirlo, tenemos la tecnología Big Data.

A partir de aquí, vas a conocer todo lo que esta aporta a la industria 4.0, así como su funcionamiento básico y algunos casos prácticos de aplicación. ¿Estás preparado para abrir bien los oídos a tu planta?

¿Qué es Big Data?

Con el término Big Data, hacemos referencia a la tecnología que permite, de manera sistemática, trabajar con grandes conjuntos de datos. Estamos hablando de cantidades de información que no pueden ser procesadas por las herramientas tradicionales. Entre las funcionalidades de Big Data, nos encontramos con:

  • Captura de datos.
  • Almacenamiento.
  • Análisis.
  • Búsqueda.
  • Intercambio.
  • Transferencia.
  • Visualización.
  • Consulta.
  • Actualización.
  • Privacidad de la información.
  • Fuentes de datos.

El concepto de Big Data se basa en 5 pilares básicos:

 

  1. Volumen: la cantidad de datos que se recopilen y almacenen definirán si estamos hablando o no de Big Data.
  2. Variedad: nos referimos a los distintos tipos de datos con los que trabaja Big Data. Anteriormente, se trabajaba con datos estructurados (que tienen un formato fijo) en una base de datos relacional. La proliferación de datos semiestructurados y no estructurados (contenido multimedia, correos electrónicos, etc.) hizo surgir la necesidad de trabajar con ellos y extraer todo su valor.
  3. Velocidad: los datos se van generando continuamente, por lo que es importante resaltar la capacidad de procesarlos en tiempo real.
  4. Veracidad: los datos deben reflejar la realidad de lo que sucede.
  5. Valor: los datos deben ser útiles para los propósitos marcados por los usuarios.
Sixphere - Big Data en industria

¿Cómo funciona Big Data?

No es necesario ser un especialista en tecnología para comprender el funcionamiento de Big Data. Los pasos que conforman el funcionamiento de un sistema Big Data son:

  1. Crear una estrategia: debemos tener muy claro para qué fines queremos implantar Big Data en la empresa. Además, también es importante conocer los recursos con los que contamos y los que necesitaremos.
  2. Escoger las fuentes de datos: estas son muy variadas. Se están creando datos sin parar y debemos seleccionar bien las que generen datos valiosos para la empresa. Entre ellas, tenemos: información proveniente de sensores y dispositivos IIoT, datos abiertos, información de webs y redes sociales, data lakes, etc.
  3. Almacenamiento y gestión de los datos: aquí se encuentran acciones como el acceso fiable, los métodos de integración, el aseguramiento de la calidad de los datos, su control, almacenamiento y preparación para análisis.
  4. Análisis de la información: sacamos valor de los datos, identificando patrones, correlaciones y otras conclusiones útiles y alineadas con nuestra estrategia.
  5. Por último, con todas estas conclusiones, los gestores y responsables toman decisiones acertadas de gestión.

Ventajas de aplicar Big Data en empresas industriales

Cuando estamos en entornos industriales, la información que se genera en cada uno de los procesos es inmensa. Además, esta no para de “fabricarse” mientras haya actividad. Esto, en muchas plantas, se realiza durante las 24 horas del día, los 365 (o 366) días del año.

Por tanto, la opción de detectar oportunidades para la mejora de los procesos es permanente. Y, por supuesto, es aplicable a todos los componentes de la cadena de suministro – desde materias primas, hasta el producto terminado-.

En líneas generales, podemos decir que la aplicación de Big Data en industrias optimiza los procesos, mejorando la productividad, la calidad de los productos y ampliando los márgenes de beneficios.

¿Cómo conseguimos esto? Una de las claves consiste en sensorizar los puntos críticos de la planta. Estos sensores son de diferente naturaleza en función de las variables que queramos medir:

  • Medidores de temperatura.
  • Manómetros.
  • Sensores para la medición de los niveles de humedad.
  • Medidores de la velocidad de fabricación de una pieza.
  • Consumo energético.
  • Geolocalización mediante beacons u otras tecnologías.
  • Etc.

Más allá de pensar en las líneas de fabricación, Big Data en industrias también es aplicable a otros aspectos más genéricos de cualquier empresa. Por ejemplo, se pueden analizar los comentarios de usuarios de redes sociales o de los emails recibidos. De esta forma, se pueden afinar las estrategias de marketing y ventas.

Aplicaciones de Big Data en la industria

Big Data es una tecnología muy versátil, por lo que pueden sacar provecho de ella muchas áreas de una empresa industrial. Sus aplicaciones más destacadas son:

  • Logística y transporte.
  • Procesos de producción.
  • Control de calidad.
  • Conocer tendencias de mercado.
  • Gestión de recursos humanos.
  • Ciberseguridad.
  • Optimización del consumo energético.

Big Data en la logística y transporte

El incremento del tráfico en carreteras, la mayor deslocalización de los almacenes, las fluctuaciones del precio de los combustibles, la internacionalización empresarial y el auge del comercio electrónico, son tendencias logísticas sobre las que Big Data interviene.

Aquí, los sistemas Big Data trabajan con información obtenida de los GPS de los vehículos, de los datos de tráfico de las instituciones oficiales, datos de movilidad de personas y materiales en almacenes, información de abastecimiento del producto por parte de los clientes, etc.

Sixphere - Big Data en la industria

Big Data en los procesos de producción

Dentro de las propias acciones de fabricación, el análisis de datos es clave para, por ejemplo, evitar que aparezcan fallos mecánicos en la maquinaria. En este caso, se combina la tecnología Big Data con la inteligencia artificial para dar forma al mantenimiento predictivo.

De esta forma, podremos anticiparnos a la aparición de fallos críticos. Unos fallos que pueden paralizar el trabajo o crear productos defectuosos, sin ningún valor y que generen importantes pérdidas económicas.

Big Data en el control de calidad

Además de estudiar la maquinaria y los sistemas implicados en la producción, también debemos monitorizar el estado del propio producto. No solamente nos estamos refiriendo al producto final, sino también a las materias primas y a los productos intermedios.

Además de contar con sensores como los que hemos mencionado, en el ámbito del control de la calidad también se puede hacer uso de imágenes reales captadas por cámaras. Estos dispositivos son capaces de recoger muchas imágenes en poco tiempo, las cuales se analizan con inteligencia artificial.

De esta forma, se pueden cribar productos en función de criterios de calidad. Con ello, se descartarán o se destinarán a otros fines. Por ejemplo, en función del grado de maduración de una fruta, esta podrá ser envasada o enviada para hacer zumo.

Big Data para conocer tendencias de mercado

El sector industrial se ve muy afectado por los altibajos de la demanda. Esto recientemente se ha visto muy claro con la crisis sanitaria. Por ejemplo, la demanda en el sector farmacéutico se ha multiplicado en estos meses; otra muestra está en el sector agroalimentario, donde decidir el momento de recolecta es clave para obtener el máximo beneficio.

Para controlar estas tendencias, necesitamos trabajar con datos históricos, factores sociales, económicos, medioambientales, políticos y de otros muchos tipos.

Big Data para gestión de recursos humanos

Esta tecnología se emplea para diversas facetas de los recursos humanos. Desde la selección de los candidatos más idóneos, hasta conseguir una gestión perfeccionada del personal y hacer que los trabajadores se sientan cómodos en sus puestos, reduciendo la rotación.

Un ejemplo lo tenemos en Amazon. Mediante su programa “Amazon Connections”, que colecciona a diario y en tiempo real información a partir de breves preguntas a sus empleados. Otra muestra la tenemos en la tecnológica Xerox, que consiguió reducir la tasa de rotación de personal en un 20%.

Big Data para ciberseguridad

Muchas industrias trabajan con productos y procesos realmente innovadores, por lo que no quieren que nadie robe sus secretos. Por otra parte, un ciberataque podría paralizar toda su actividad. De aquí que surja una necesidad imperiosa de protección frente a los ciberdelincuentes.

Aquí también debemos considerar el trabajo conjunto de Big Data con la tecnología Cloud Computing, ya que en la mayoría de ocasiones la información se encuentra alojada en la nube. Los sistemas Big Data analizan toda la información que se recolecta, buscando posibles vulnerabilidades e irregularidades.

Big Data para optimizar el consumo energético

Hornos, cámaras frigoríficas, maquinaria de muchas clases, sistemas de climatización… todo ello funcionando sin parar. ¿Te imaginas la factura de la luz? Controlar el gasto eléctrico en un entorno industrial no es poca cosa. Por suerte, Big Data también puede echar una mano aquí.

Para conseguirlo, entra en escena el concepto de red inteligente o smart grid. Estas trabajan con sensores IoT distribuidos que consiguen los datos de consumo para el sistema Big Data.

Éste último trabaja conjuntamente con inteligencia artificial. Con todo esto, se monitoriza en tiempo real el consumo eléctrico, de manera que el suministro se ajusta a la demanda. Un equilibrio que abarata el gasto eléctrico.

Sixphere - Big Data y consumo eléctrico

Herramientas para la aplicación de Big Data en empresas industriales

Vale, Big Data es actualmente muy necesario en la industria, pero… ¿cómo lo aplico?, ¿por dónde empiezo? Hacerse este tipo de preguntas es lo más natural del mundo, una vez que sabemos que debemos contar con esta tecnología.

Para que esto no suponga un continuo dolor de cabeza a los gestores industriales, en Sixphere contamos con soluciones que explotan todo el potencial de los ingentes datos que una fábrica origina.

En primer lugar, podemos hablar de Polaris Industry, que integra tecnologías como Machine Learning, IIoT y Big Data, entre otras. Polaris Industry está formada por una arquitectura de 5 capas:

  • Iot & Proximity.
  • Core.
  • Business Services.
  • Data Engine.
  • Smart Cloud Factory.

Como ves, una de estas capas recibe el nombre de Data Engine. Se trata de una capa transversal a otras y que recopila, estructura y procesa datos, por lo que Big Data es imprescindible para su funcionamiento.

Polaris también tiene un módulo especialmente desarrollado para el entorno agroganadero, que recibe el nombre de Polaris Farm. Éste se adapta a las condiciones específicas del sector, sobre todo por su carácter al aire libre.

De esta forma, se tiene un mayor control tanto de los cultivos como de las cabezas de ganado. Polaris Farm está en proceso de desarrollo impulsado por nuestro avance en el proyecto europeo DIVA, orientado a la transformación digital del sector agroalimentario.

Tampoco debemos dejar atrás nuestro producto Polaris Tx, destinado a la digitalización de la cadena de suministro. Con Polaris Tx, todos los miembros de la cadena estarán informados en tiempo real de todo lo que ocurre en la producción. Así pueden mejorar la gestión, a la vez que se les aporta seguridad y privacidad.

Como has podido ver, Big Data es imprescindible en cualquier empresa industrial que quiera seguir creciendo. Su adaptabilidad, sumada a los resultados que proporciona, son los responsables de ello.

Para hacer más sencillo este paso, y hacer la planta aún más inteligente, en Sixphere contamos con soluciones que saben escuchar a tu fábrica y comprender todo lo que nos dice y que sea relevante. ¿Vas a seguir haciéndole oídos sordos?

El papel de la protección de datos en tiempos de teletrabajo

El papel de la protección de datos en tiempos de teletrabajo

Desde la incorporación masiva del teletrabajo, se ha conformado un nuevo escenario de riesgos en materia de seguridad y protección de datos que exige por parte de las empresas una gestión adecuada que garantice su integridad de acuerdo a las leyes vigentes. Hablemos sobre el papel de la protección de datos en el teletrabajo.

Big Data, anomalías y predicción: análisis de una serie temporal

Big Data, anomalías y predicción: análisis de una serie temporal

La determinación del tiempo de fabricación de un elemento en una línea de producción es clave para la optimización de los procesos asociados. Pero, ¿cómo puede calcularse? A continuación, un ejemplo práctico y técnico a través del uso y explotación de datos.

Los casos de éxito de Sixphere

¿Quieres conocer qué hacemos y el modo en que lo hacemos? Visita nuestros casos de éxito y pregúntanos todo lo que necesites saber.