Data Management
El concepto Data Management, o de gestión de datos surgió en los 80´s cuando la
tecnología pasó del procesamiento secuencial (primero tarjetas perforadas, luego
cinta magnética) al almacenamiento de acceso aleatorio. Como ahora era posible
almacenar un hecho discreto y acceder rápidamente a él utilizando la tecnología
de discos de acceso aleatorio, quienes sugerían que la gestión de datos era más
importante que la gestión de procesos comerciales utilizaba argumentos como "la
dirección del domicilio de un cliente se almacena en 75 lugares (o en algún otro
gran número) de nuestros sistemas informáticos". Sin embargo, durante este
período, el procesamiento de los accesos aleatorios no fue competitivo, por lo que
quienes sugerían que la "gestión de procesos" era más importante que la "gestión
de datos" utilizaron como argumento principal el tiempo de procesamiento por
lotes. A medida que el software de aplicación evolucionó hacia un uso interactivo
en tiempo real, se hizo evidente que ambos procesos de gestión eran importantes.
Si los datos no estaban bien definidos, se utilizarían mal en las aplicaciones. Si el
proceso no estaba bien definido, era imposible satisfacer las necesidades de los
usuarios.
Temas relacionados con el DAMA
1. Data Governance
Micro y Macro Governance
Micro.
Aquí el foco está en una compañía individual. Aquí la gobernanza de
datos es un concepto de gestión de datos que se refiere a la capacidad que
permite a una organización asegurar que existe una alta calidad de datos a
lo largo de todo el ciclo de vida de los datos. Las áreas de enfoque clave del
gobierno de datos incluyen la disponibilidad, la facilidad de uso, la
consistencia, la integridad y la seguridad de los datos e incluye el
establecimiento de procesos para asegurar el manejo efectivo de los datos
en toda la empresa, tales como la responsabilidad por los efectos adversos
de la mala calidad de los datos y la garantía de que los datos que tiene una
empresa pueden ser utilizados por toda la organización.
Un administrador de datos es una función que garantiza que se sigan
los procesos de gobernanza de datos y que se apliquen las directrices, así
como la recomendación de mejoras en los procesos de gobernanza de
datos.
El gobierno de los datos abarca las personas, los procesos y la
tecnología de la información necesarios para crear un manejo coherente y
adecuado de los datos de una organización en toda la empresa.
Proporciona a todas las prácticas de gestión de datos la base, la estrategia
y la estructura necesarias para garantizar que los datos se gestionen como
un activo y se transformen en información significativa. Los objetivos
pueden definirse en todos los niveles de la empresa y hacerlo puede ayudar
a la aceptación de los procesos por quienes los utilizarán. Algunos objetivos
son
Aumento de la coherencia y la confianza en la toma de decisiones
Disminución del riesgo de multas reglamentarias
Mejorar la seguridad de los datos, definiendo y verificando también
los requisitos de las políticas de distribución de datos.
Maximizar el potencial de generación de ingresos de los datos
Designar la responsabilidad de la calidad de la información
Permitir una mejor planificación por parte del personal de supervisión
Minimizando o eliminando la reelaboración
Optimizar la eficacia del personal
Establecer bases de referencia del rendimiento de los procesos para
permitir los esfuerzos de mejora
Reconocer y mantener todas las ganancias
Estos objetivos se realizan mediante la aplicación de programas de gobierno de
datos, o iniciativas que utilizan técnicas de gestión del cambio.
Cuando las empresas desean, o se les exige, obtener el control de sus datos,
capacitan a su gente, establecen procesos y obtienen ayuda de la tecnología para
hacerlo.
Según un proveedor, la gobernanza de datos es una disciplina de control de
calidad para evaluar, gestionar, utilizar, mejorar, supervisar, mantener y proteger
la información de la organización. Es un sistema de derechos de decisión y
responsabilidades para los procesos relacionados con la información, ejecutado
de acuerdo con modelos acordados que describen quién puede tomar qué
medidas con qué información, y cuándo, en qué circunstancias, utilizando qué
métodos.
2. Data Architecture
En la tecnología de la información, la arquitectura de datos se compone de
modelos, políticas, reglas o normas que rigen qué datos se recogen y cómo
se almacenan, organizan, integran y utilizan en los sistemas de datos y en
las organizaciones. Los datos suelen ser uno de los varios dominios de la
arquitectura que constituyen los pilares de una arquitectura empresarial o
una arquitectura de solución.
Restricciones e influencias
Varias limitaciones e influencias tendrán un efecto en el diseño de la
arquitectura de datos. Entre ellas figuran los requisitos de las empresas, los
factores tecnológicos, la economía, las políticas comerciales y las
necesidades de procesamiento de datos.
Requisitos de la empresa
Por lo general, estos incluirán elementos tales como la
expansión económica y eficaz del sistema, niveles de rendimiento
aceptables (especialmente la velocidad de acceso al sistema),
fiabilidad de las transacciones y gestión transparente de los datos.
Además, la conversión de datos en bruto, como los registros de
transacciones y los archivos de imágenes, en formularios de
información más útiles mediante características como los almacenes
de datos, es también un requisito organizativo común, ya que permite
la adopción de decisiones de gestión y otros procesos organizativos.
Una de las técnicas de arquitectura es la división entre la gestión de
los datos de transacción y los datos de referencia (maestros). Otra es
la separación de los sistemas de captura de datos de los sistemas de
recuperación de datos (como se hace en un almacén de datos).
Impulsores de la tecnología
Estos suelen ser sugeridos por los diseños de la arquitectura de
datos y de la arquitectura de la base de datos ya terminados.
Además, algunos impulsores de la tecnología se derivarán de los
marcos y normas de integración organizativa existentes, de la
economía organizativa y de los recursos del sitio existentes (por
ejemplo, las licencias de software adquiridas anteriormente). En
muchos casos, la integración de múltiples sistemas heredados
requiere el uso de tecnologías de virtualización de datos.
Economía
Estos son también factores importantes que deben considerarse
durante la fase de arquitectura de datos. Es posible que algunas
soluciones, aunque en principio sean óptimas, no sean candidatas
potenciales debido a su costo. Factores externos como el ciclo
comercial, los tipos de interés, las condiciones del mercado y las
consideraciones jurídicas podrían influir en las decisiones relativas a
la arquitectura de datos.
Políticas comerciales
Las políticas empresariales que también impulsan el diseño de la
arquitectura de datos incluyen políticas organizativas internas,
normas de los organismos reguladores, estándares profesionales y
leyes gubernamentales aplicables que pueden variar según el
organismo correspondiente. Estas políticas y reglas ayudarán a
describir la manera en que la empresa desea procesar sus datos.
Necesidades de procesamiento de datos
Entre ellas figuran las transacciones precisas y reproducibles
realizadas en grandes volúmenes, el almacenamiento de datos para
apoyar los sistemas de información de gestión (y la posible
extracción de datos), la presentación de informes periódicos
repetitivos, la presentación de informes especiales y el apoyo a
diversas iniciativas de la organización según sea necesario (por
ejemplo, presupuestos anuales, desarrollo de nuevos productos).
3. Data modeling and Design
La modelización de datos es un proceso utilizado para definir y analizar los
requisitos de datos necesarios para apoyar los procesos comerciales en el
ámbito de los sistemas de información correspondientes de las
organizaciones. Por lo tanto, el proceso de modelización de datos implica la
participación de modeladores de datos profesionales que trabajan en
estrecha colaboración con las empresas interesadas, así como con los
posibles usuarios del sistema de información.
Hay tres tipos diferentes de modelos de datos que se producen mientras se
avanza desde los requisitos hasta la base de datos real que se utilizará
para el sistema de información. Los requisitos de datos se registran
inicialmente como un modelo conceptual de datos que es esencialmente un
conjunto de especificaciones independientes de la tecnología sobre los
datos y se utiliza para examinar los requisitos iniciales con los interesados
comerciales. El modelo conceptual se traduce luego en un modelo lógico de
datos, que documenta las estructuras de los datos que pueden aplicarse en
las bases de datos. La aplicación de un modelo conceptual de datos puede
requerir múltiples modelos lógicos de datos. El último paso en el modelado
de datos es transformar el modelo lógico de datos en un modelo de datos
físico que organice los datos en cuadros y dé cuenta de los detalles de
acceso, rendimiento y almacenamiento. El modelado de datos define no
sólo los elementos de los datos, sino también sus estructuras y las
relaciones entre ellos.
Las técnicas y metodologías de modelización de datos se utilizan para
modelizar los datos de manera estándar, coherente y previsible a fin de
gestionarlos como un recurso. Se recomienda encarecidamente el uso de normas
de modelado de datos para todos los proyectos que requieran un medio estándar
para definir y analizar los datos dentro de una organización, por ejemplo, utilizando
el modelado de datos:
Para ayudar a los analistas de negocios, programadores,
probadores, escritores de manuales, seleccionadores de paquetes
de TI, ingenieros, gerentes, organizaciones relacionadas y clientes a
comprender y utilizar un modelo semiformal acordado los conceptos
de la organización y la forma en que se relacionan entre sí
Para gestionar los datos como un recurso
Para la integración de los sistemas de información
Para diseñar bases de datos/almacenes de datos (también
conocidos como depósitos de datos)
4. Database & Storage Management
o Data maintenance
o Database administration
o Database management system
o Business continuity planning
5. Data Security
o Data access
o Data erasure
o Data privacy
o Data security
6. Reference and Master Data
o Data integration
o Master data management
En los negocios, la gestión de datos maestros (MDM) es un método
utilizado para definir y gestionar los datos críticos de una organización para
proporcionar, con la integración de datos, un único punto de referencia. Los
datos que se dominan pueden incluir datos de referencia - el conjunto de
valores permitidos, y los datos analíticos que apoyan la toma de decisiones.
En la informática, se puede utilizar un instrumento de gestión de datos
maestros para apoyar la gestión de los datos maestros eliminando los
duplicados, normalizando los datos (mantenimiento masivo), e incorporando
reglas para eliminar los datos incorrectos que entran en el sistema a fin de
crear una fuente autorizada de datos maestros. Los datos maestros son los
productos, las cuentas y las partes para las que se completan las
transacciones comerciales. El problema de la causa fundamental se deriva
de la segmentación de las unidades comerciales y las líneas de productos,
en la que un mismo cliente será atendido por diferentes líneas de
productos, introduciéndose datos redundantes sobre el cliente (también
conocido como parte en calidad de cliente) y la cuenta a fin de procesar la
transacción. La redundancia de los datos de la parte y la cuenta se agrava
en el ciclo de vida del front office al back office, en el que se necesita una
fuente única y autorizada para los datos de la parte, la cuenta y el producto,
pero a menudo se introduce o aumenta una vez más de forma redundante.
La gestión de datos maestros tiene el objetivo de proporcionar procesos
para recopilar, agregar, cotejar, consolidar, asegurar la calidad, persistir y
distribuir esos datos en toda una organización para asegurar un
entendimiento común, coherencia, exactitud y control en el mantenimiento
continuo y el uso de la aplicación de esta información.
El término recuerda el concepto de archivo maestro de una era informática
anterior.
o Reference data
7. Data Integration and Inter-operability
o Data movement (Extract, transform, load )
o Data Interoperability
La integración de datos implica combinar datos que residen en diferentes
fuentes y a los usuarios una visión unificada de los mismos. Este proceso
adquiere importancia en diversas situaciones, que incluyen tanto los
dominios comerciales (como cuando dos empresas similares necesitan
fusionar sus bases de datos) como los científicos (combinando los
resultados de investigaciones de diferentes depósitos de bioinformática, por
ejemplo). La integración de datos aparece con creciente frecuencia a
medida que aumenta el volumen (es decir, los grandes datos) y la
necesidad de compartir los datos existentes. Se ha convertido en el centro
de una extensa labor teórica, y numerosos problemas abiertos siguen sin
resolverse. La integración de datos fomenta la colaboración entre usuarios
internos y externos.
8. Documents and Content
o Document management system
o Records management
9. Data Warehousing and Business Intelligence
o Business intelligence
La inteligencia empresarial (BI) comprende las estrategias y tecnologías
utilizadas por las empresas para el análisis de datos de la información
empresarial. Las tecnologías de BI proporcionan vistas históricas,
actuales y predictivas de las operaciones empresariales. Las funciones
comunes de las tecnologías de inteligencia empresarial incluyen la
elaboración de informes, el procesamiento analítico en línea, el análisis,
la minería de datos, la minería de procesos, el procesamiento de
eventos complejos, la gestión del rendimiento empresarial, la
evaluación comparativa, la minería de textos, el análisis predictivo y el
análisis prescriptivo. Las tecnologías de inteligencia empresarial
pueden manejar grandes cantidades de datos estructurados y a veces
no estructurados para ayudar a identificar, desarrollar y crear de otro
modo nuevas oportunidades estratégicas de negocio. Su objetivo es
permitir la fácil interpretación de estos grandes datos. La identificación
de nuevas oportunidades y la implementación de una estrategia
efectiva basada en la información puede proporcionar a las empresas
una ventaja competitiva en el mercado y una estabilidad a largo plazo.
La inteligencia comercial puede ser utilizada por las empresas para
apoyar una amplia gama de decisiones comerciales que van desde las
operacionales hasta las estratégicas. Las decisiones operativas básicas
incluyen el posicionamiento del producto o la fijación de precios. Las
decisiones empresariales estratégicas implican prioridades, objetivos y
direcciones al más amplio nivel. En todos los casos, la BI es más eficaz
cuando combina datos derivados del mercado en el que opera una
empresa (datos externos) con datos de fuentes empresariales internas
al negocio, como datos financieros y de operaciones (datos internos).
Cuando se combinan, los datos externos e internos pueden
proporcionar una imagen completa que, en efecto, crea una
"inteligencia" que no puede derivarse de ningún conjunto de datos
singular. Entre los múltiples usos, las herramientas de inteligencia
empresarial permiten a las organizaciones conocer nuevos mercados,
evaluar la demanda y la idoneidad de los productos y servicios para los
diferentes segmentos de mercado, y medir el impacto de los esfuerzos
de marketing.
Las aplicaciones de BI utilizan datos recogidos de un almacén de datos
(DW) o de un mercado de datos, y los conceptos de BI y DW se
combinan como "BI/DW"o como "BIDW". Un almacén de datos contiene
una copia de los datos analíticos que facilitan el apoyo a la decisión.
Data analysis and Data mining
o Data warehouse and Data mart
En informática, un almacén de datos (DW o DWH), también conocido
como almacén de datos empresariales (EDW), es un sistema utilizado
para informes y análisis de datos, y se considera un componente central
de la inteligencia empresarial. Los DW son repositorios centrales de datos
integrados de una o más fuentes dispares. Almacenan datos actuales e
históricos en un solo lugar que se utilizan para crear informes analíticos
para los trabajadores de toda la empresa.
Los datos almacenados en el almacén se cargan desde los sistemas
operativos (como marketing o ventas). Los datos pueden pasar a través
de un almacén de datos operativos y pueden requerir la limpieza de datos
para operaciones adicionales para garantizar la calidad de los datos antes
de ser utilizados en el DW para la presentación de informes.
Extraer, transformar, cargar (ETL) y extraer, cargar, transformar (E-LT)
son los dos enfoques principales utilizados para construir un sistema de
depósito de datos.
10. Metadata
o Metadata management
o Metadata
o Metadata discovery
o Metadata publishing
o Metadata registry
11.Data Quality
La calidad de los datos se refiere al estado de las piezas de información
cualitativa o cuantitativa. Existen muchas definiciones de calidad de los datos,
pero en general se considera que los datos son de alta calidad si son "aptos
para [sus] usos previstos en las operaciones, la toma de decisiones y la
planificación". Además, se considera que los datos son de alta calidad si
representan correctamente la construcción del mundo real a la que se refieren.
Además, aparte de estas definiciones, a medida que aumenta el número de
fuentes de datos, la cuestión de la coherencia interna de los datos adquiere
importancia, independientemente de la idoneidad para su uso para cualquier
propósito externo concreto. Las opiniones de la gente sobre la calidad de los
datos pueden estar a menudo en desacuerdo, incluso cuando se trata del
mismo conjunto de datos utilizados para el mismo propósito. Cuando esto
ocurre, la gobernanza de los datos se utiliza para formar definiciones y normas
acordadas sobre la calidad de los datos. En esos casos, puede ser necesario
depurar los datos, incluida la normalización, a fin de garantizar la calidad de
los mismos
o Data cleansing
o Data integrity
o Data enrichment
o Data quality
o Data quality assurance
o Secondary data
IDM
La gestión integrada de datos (IDM) es un enfoque de herramientas para facilitar
la gestión de datos y mejorar el rendimiento. IDM consiste en un entorno integrado
y modular para gestionar los datos de las aplicaciones de la empresa y optimizar
las aplicaciones basadas en datos a lo largo de su vida útil. El propósito de IDM
es:
Producir aplicaciones listas para la empresa más rápidamente
Mejorar el acceso a los datos, acelerar las pruebas iterativas
Potenciar la colaboración entre arquitectos, desarrolladores y DBAs
Alcanzar sistemáticamente los objetivos de nivel de servicio
Automatizar y simplificar las operaciones
Proporcionar inteligencia contextual a través de la pila de soluciones
Apoyar el crecimiento del negocio
Acomodar las nuevas iniciativas sin ampliar la infraestructura
Simplificar las actualizaciones de las aplicaciones, la consolidación y la
jubilación
Facilitar la alineación, la coherencia y la gobernanza
Definir las políticas y estándares de negocios por adelantado; compartir,
extender y aplicar a lo largo del ciclo de vida
Linaje de Datos
Linaje de datos se define como un ciclo de vida de datos que incluye el origen de los datos y
donde se mueve con el tiempo. " Describe lo que sucede a los datos mientras pasa a través
de diversos procesos. Ayuda a proporcionar visibilidad en la canalización de analytics y
simplifica errores de seguimiento a sus fuentes. También permite reproducir porciones
específicas o entradas del flujo de datos para step-wise de depuración o regenerar la pérdida
de producción. De hecho, los sistemas de bases de datos han utilizado dicha información,
llamado origen de datos, para abordar retos depuración y validación similar ya.
Procedencia de datos las entradas de los documentos, entidades, sistemas y procesos que
influyen en la información de interés, en efecto, proporcionando un registro histórico de los
datos y sus orígenes. La evidencia generada apoya actividades forenses esenciales tales
como análisis de datos-dependencia, detección de error/compromiso y recuperación y análisis
de auditoría y cumplimiento. "Linaje es un tipo simple de ¿por qué procedencia."
Desafíos en Big Data Depuración
Escala masiva
Las últimas dos décadas han visto una explosión nuclear en la recolección y almacenamiento
de información digital. En 2012, 2.8 zettabytes— Eso es 1 sextillion bytes, o el equivalente de
tweets 9223372.036854775807 trillones — fueron creadas o replicado, según la firma de
investigación IDC. Hay cientos o miles de bases de datos de escala petabyte hoy en día, y
comparamos su tamaño a lo que existió hace dos décadas, cada vez la base de comparación
sería cero. Aquí le damos un vistazo a algunos de los conjuntos de datos más grandes e
interesantes de todo el mundo. Trabajar con esta escala de datos se ha convertido en un reto.
Datos no estructurados
La frase datos no estructurados generalmente se refiere a la información que no reside en una
base de datos tradicionales filas columnas. Como era de esperar, es lo contrario de datos
estructurados los datos almacenados en los campos de una base de datos. Los archivos de
datos no estructurados suelen incluyen texto y contenido multimedia. Los ejemplos incluyen
mensajes de correo electrónico, documentos de procesamiento, vídeos, fotos, archivos de
audio, presentaciones, páginas web y muchos otros tipos de documentos comerciales. Tenga
en cuenta que aunque este tipo de archivos puede tener una estructura interna, todavía son
considerados "no estructurados" porque los datos que contienen no encajan perfectamente en
una base de datos. Los expertos estiman que 80 a 90 por ciento de los datos en cualquier
organización es contenido no estructurado. Y la cantidad de datos no estructurados en
empresas está creciendo más rápido de las bases de datos estructurados están creciendo
significativamente a menudo muchas veces. Datos de grandes puede incluir datos tanto
estructurados como no estructurados, pero IDC estima que el 90 por ciento de datos de
grandes son datos no estructurados.
Tiempo de pasada
En hiper competitivo ambiente de negocios actual, las empresas no sólo tienen que encontrar
y analizar los datos pertinentes que necesitan, lo deben encontrar rápidamente. El desafío
está pasando por los puro volúmenes de datos y acceder al nivel de detalle necesario, todo a
una velocidad alta. El desafío sólo crece como el grado de granularidad aumenta. Una posible
solución es hardware. Algunos proveedores utilizan memoria mayor y poderoso paralelo
extremadamente rápido procesamiento de grandes volúmenes de crujido de datos. Otro
método es poner datos en memoria pero usando una red informática de enfoque, donde
muchas máquinas se utilizan para resolver un problema. Ambos enfoques permiten a las
organizaciones explorar los volúmenes de datos enorme. Incluso esto este nivel de sofisticado
hardware y software, algunas de las tareas en gran escala de procesamiento de imágenes
tomarme unos días a semanas. Depuración de la informática es extremadamente difícil debido
a tiempos de largo plazo.
Plataforma compleja
Big Data las plataformas tienen una estructura muy complicada. Datos se distribuyen entre
varias máquinas. Normalmente los puestos de trabajo se asignan a varias máquinas y
posteriormente se combinaron los resultados por reducir las operaciones. Depuración de un
datos de grandes tubería llega a ser muy difícil debido a la naturaleza misma del sistema. No
será una tarea fácil para el científico de datos averiguar datos de la máquina que tienen los
afloramientos y características desconocidas causando un algoritmo especial para dar
resultados inesperados.
Legacy Systems (Citi)
S100 Sistema de entrada y salida de diálogos al/del sistema UNISYS.
Administra el ruteo de peticiones a los sistemas de UNISYS de los CSI de Monterrey
y Valle de México.
S015 Sistema Middleware que se encarga de orquestar las transacciones que le llegan de
los sistemas externos (medios) utiliza un protocolo de comunicación basado en
mensajes (diálogos) SA2, STD2, BEL, etc.
S080 Sistema de administración de los catálogos institucionales que sirven a todos los
demás sistemas, con manejo de réplicas en otras plataformas como Canal Inteligente
en los equipos TANDEM
S016 Sistema de Clientes con toda la información relacionada con clientes, cuentas,
Contratos de los clientes de Banamex
S500 Sistema de administración de los movimientos cheques para las transacciones de
Pagos.
S274 Sistema de dispersión de pagos.
S264 Sistema de administración de pagos interbancarios.
SPEI Sistema de Pagos Electrónicos Interbancarios. Sistema desarrollado e implementado
en Canal Inteligente sobre OSS (versión de Unix) en mainframe TANDEM, Tuxedo y
lenguaje C, con la administración de las ordenes de pagos que van o que vienen de
otros bancos.
Implementa de FEC, protocolo de comunicación segura entre los bancos y Banco de
México.
CI Canal Inteligente, Sistema desarrollado sobre Unix con Tuxedo y lenguaje C que es la
implementación de Banamex al paradigma de SOA, Sistema de administración de
aplicaciones tanto locales con los servidores aplicativos y base de datos, como con
funciones de middleware para los sistemas externos (otras plataformas).
GBS Sistema Global de Pagos Interbancarios (especie de SPEI internacional) mediante el
estándar SWIFT para el intercambio de órdenes de pago entre bancos de diversos
países.
DAMA best practices.
1. Outline your business goals.
You don’t want to jump straight into the deep end when it comes to data
management. Start small by outlining exactly what your goals are with your
company’s data. Knowing what you plan to do with the data you collect can help
you to keep only the information that is relevant to your goal, ensuring that your
data management software doesn’t get overcrowded and unorganized.
Too many companies keep and continue to store way too much data for which they
have absolutely no use. By keeping only the data that your company is going to
use, you’re helping to keep your data management software, well, for lack of a
better word, manageable.
A few example goals your business might have are:
Improve decision-making
Create/improve automations and processes
Audience targeting/create a buyer profile
Find customer buying habits/patterns
Train sales and marketing teams on data use
There are so many more things you could plan to do with your data, but it’s
essential to start by outlining your goals. Your business data goals will direct
your data management processes so you don’t end up with tons of data that
is completely irrelevant to your company’s needs.
2. Prioritize data protection and security.
First of all, this is an essential step to take to ensure your company doesn’t fall
victim to a data breach and endanger the information of your entire customer base.
If we’ve learned anything from Facebook, it’s that people really don’t like it when
unknown sources gain access to their personal data. Data protection and security
need to be a number one priority when it comes to your business’s data
management.
Especially with the General Data Protection Regulations (GDPR) that came out in
the EU last year (impacting not only businesses that operate within the EU, but all
businesses who market and sell to customers that reside within the EU) and other
nations likely to follow suit in the near future, it’s crucial for your company to follow
all applicable guidelines to ensure the privacy of your leads and customers.
Using proper data management software can help ensure the safety and security
of your data, and complying with GDPR and other regulations when it comes to
collecting data can also improve your data protection. Put the right people in
charge of your data and ensure your team members know how to handle the data
they work with properly.
Finally, put together some type of plan or course of action to take if there is a
suspected data breach within your company. Ideally, this will never happen, but it’s
still a good idea to have some sort of strategy for how to handle a potential breach.
3. Focus on data quality.
Although, as we outlined in the first section, limiting your data to only the necessary
information your company needs to meet its goals is a great way to improve data
quality, there are so many more steps to take to ensure the data your company is
collecting remains clean and reliable.
First, data should be regularly checked for accuracy as old data can become
outdated and irrelevant to your sales and marketing teams. Outdated or stale data
should be purged from your data management software often to keep it from
negatively impacting your automations, analytics, and other processes within your
sales and marketing departments.
Another step to take to help your team focus on data quality within your data
management is to train all team members who have access to the data about the
proper ways to collect and input data. Most ways are likely to be automated, but if
you have team members setting up these automations or instances where data
may be manually added to your CRM or data management software, training is a
necessity. This keeps data from being input incorrectly, thus preventing problems
down the line.
Ensure the data is checked and cleaned before it is used in any analytics or
reporting to improve the accuracy of all metrics pulled from said data. Making data
quality a top priority (closely following data security) helps to keep all aspects of
your company’s data use clean and reliable.
4. Reduce duplicate data.
There are many ways that your company could receive duplicate data from a lead
or customer, and you should have processes in place to handle potential
redundancies. If a lead is opting into multiple lead magnets or offers, or if a
customer is returning to make another purchase, ensure your company has
processes in place to avoid duplicate data being added to your data management
system.
Although many companies may not think about this when first setting up their data
management, it’s essential to create systems that allow data to be updated or
changed when someone opts in more than once or makes a return purchase.
Putting in precautions when it comes to duplicate data and redundancies is just
another way to ensure your data stays clean.
5. Ensure your data is readily accessible to your team.
There’s a fine line between security and convenience when it comes to accessing
your data. You want it to be absolutely impossible for someone without the proper
permissions to gain access to your company’s customer data, but you don’t want
authorized personnel on your sales and marketing teams to have to jump through
hoops just to access the information they need to do their everyday job.
It’s a smart idea to set up particular logins and access permissions for people
based on their specific role/data needs. Executives or team leaders who may need
to access more customer data than analysts or sales representatives need to have
more permissions than those who only need certain types of data. This also helps
to ensure protection for your customer data within your own company. Setting up
different levels of permissions makes it easier for your team members to access
the necessary data rather than trying to set up blanket rules and permissions that
can cause issues, be too restrictive in some cases, or be too open in others.
6. Create a data recovery strategy.
Because accidents happen, it’s important for your business to have some kind of
data recovery strategy in place. Losing access to all of your customer data could
be extremely detrimental to your marketing campaigns, marketing automations,
and sales strategies. If someone were to make a mistake and delete some or all of
your data, if your accounts were to somehow get shut down, or if your CRM or data
management software were to go under, you need to have a backup or recovery
plan in place.
Come up with a solution that makes sense for your business. Try regularly
exporting your data so that you still have a file with all of the information saved on a
hard drive, or upload it to a cloud service like Google Drive or Dropbox. Make sure
your account has security permissions in place in case you were to get locked out.
Create backups of all data so that you can quickly and easily restore it if anything
were to happen.
7. Use a quality data management software.
Finding good software is an essential step in creating a quality data management
process for your company. Investing in the wrong data management software can
cause issues upon issues. Whether it’s too complex for your team to understand,
too large of a system for your business’s needs (some data management
companies only focus on enterprise companies rather than businesses of all
shapes and sizes), or not secure enough for your business to feel comfortable
relying on, there’s a lot that goes into finding the perfect data management
software for your needs.
You want to find a customer data platform that is going to give you clear and
accurate insight into your leads and customer data, and that helps you engage with
your audience in a precise and timely manner. Your customer data platform should
be making the jobs of your sales and marketing teams easier by automatically
enriching and cleaning the data to ensure that you have the most accurate and
complete view of your data possible.
If you invest in the wrong customer data platform right off the bat, you’re costing
your company money in having to relearn a new system, retrain staff on properly
inputting data, and recreate your processes surrounding data input.
Data Mapping
En la informática y la gestión de datos, la cartografía de datos es el proceso de
creación de mapeos de elementos de datos entre dos modelos de datos distintos.
El mapeo de datos se utiliza como primer paso para una amplia variedad de tareas
de integración de datos, entre ellas:
La transformación o mediación de datos entre una fuente de datos y un destino
Identificación de las relaciones de datos como parte del análisis de linaje de datos
Descubrimiento de datos confidenciales ocultos, como los cuatro últimos dígitos de
un número de seguridad social ocultos en otra identificación de usuario como parte
de un proyecto de enmascaramiento o desidentificación de datos
Consolidación de múltiples bases de datos en una sola base de datos e
identificación de columnas de datos redundantes para su consolidación o
eliminación
Por ejemplo, una empresa que desee transmitir y recibir compras y facturas con
otras empresas podría utilizar la cartografía de datos para crear mapas de datos a
partir de los datos de una empresa a mensajes ANSI ASC X12 normalizados para
artículos como pedidos de compra y facturas.
Linaje de Datos.
El linaje de datos incluye el origen de los datos, lo que le sucede y dónde se
mueve en el tiempo. El linaje de datos da visibilidad mientras que simplifica
enormemente la capacidad de rastrear los errores hasta la causa raíz en un
proceso de análisis de datos.
También permite reproducir porciones o entradas específicas del flujo de datos
para la depuración por etapas o la regeneración de la salida perdida. Los sistemas
de bases de datos utilizan esa información, denominada procedencia de los datos,
para hacer frente a problemas similares de validación y depuración. La
procedencia de los datos se refiere a los registros de las entradas, entidades,
sistemas y procesos que influyen en los datos de interés, proporcionando un
registro histórico de los datos y sus orígenes. Las pruebas generadas apoyan las
actividades forenses como el análisis de la dependencia de los datos, la detección
y recuperación de errores/compromisos, la auditoría y el análisis del cumplimiento.
"El linaje es un tipo simple de por qué la procedencia".
El linaje de los datos puede representarse visualmente para descubrir el
flujo/movimiento de los datos desde su origen hasta su destino a través de varios
cambios y saltos en su camino en el entorno empresarial, cómo se transforman los
datos a lo largo del camino, cómo cambian la representación y los parámetros, y
cómo los datos se dividen o convergen después de cada salto. Una
representación simple del Linaje de Datos puede mostrarse con puntos y líneas,
donde el punto representa un contenedor de datos para el punto o puntos de datos
y las líneas que los conectan representan la transformación o transformaciones
que sufre el punto de datos, entre los contenedores de datos.
Formulas, input dimensionamiento, estimación para base de datos. Oracle ETL.
Cognos Analytics
Metodología calidad journey de datos linaje puntos de medición, formas de
medición