Inicio
 > Informes e investigaciones > Blog de TEC > Reporte del estado de business intelligence

Reporte del estado de business intelligence

Escrito por: Predrag Jakovljevic
Publicado: junio 27 2005

La historia y el estado actual

La presión que ejercen la economía y los reglamentos han hecho que el amplio conjunto de tecnología que conocemos como business intelligence (BI), adquiera más importancia que nunca para todos los usuarios de aplicaciones empresariales. Dichos usuarios no están satisfechos con la cantidad de información que obtienen, si acaso obtienen algo, de sus aplicaciones empresariales. La planificación de los recursos de la empresa (ERP) y BI (a veces conocido como analíticos, que es un software analítico especializado) son conceptos inseparables que han adoptado trayectorias diferentes y han evolucionado de forma distinta.

Los sistemas ERP han transformado de forma positiva los procesos del negocio de las empresas, pero muchos usuarios sienten que se les vendió más de lo que necesitaban, ya que ERP parece bloquear e inhibir el acceso a la información vital. En la mayoría de los sistemas ERP tradicionales, las actividades operativas se agrupan para formar procesos creados de forma artificial, que no se parecen mucho a las actividades reales del negocio. Por ejemplo, ERP se ha enfocado en introducir las cifras correctas en el libro mayor y crear un conjunto de transacciones (para mayor información sobre el origen de las aplicaciones empresariales, consulte Enterprise Applications—The Genesis and Future, Revisited.).

Por otro lado, BI, que durante décadas ha sido conocido como sistema ejecutivo de información (EIS), ofrece una serie nueva de herramientas funcionales similares y mucho más informativas que ayudan a las empresas a operar con mayor eficiencia y rentabilidad. Existe un gran número de empresas de fabricación y distribución, de todos los tamaños, que pueden aprovechar el software para sentir el pulso de las operaciones diarias y para detectar las incongruencias, analizar el desempeño de distintas áreas e iniciar ajustes correctivos. Las herramientas de BI prometen ayudar a que los empleados de la empresa reúnan los datos que son demasiado complicados para manipularlos de forma manual. Por ejemplo, son pocos los departamentos donde realmente se necesitan con urgencia herramientas nuevas como compras y sourcing, mayores desviaciones en los tiempos de entrega y donde el crecimiento y la inestabilidad de la base de proveedores exigen que los compradores aumenten su destreza. BI puede proporcionar esta destreza.

Esta es la primera de siete partes que conforman esta nota.

La segunda parte detallará las herramientas BI contemporáneas; la tercera explorará lo que está disponible; la cuarta describirá el panorama del mercado de BI/CPM; la quinta hablará de los vendedores Geac y Point Solution; la sexta comparará el acceso directo al almacén de datos en el mercado medio y la séptima dará recomendaciones a los usuarios.

El mundo de las transacciones

Los sistemas de software empresarial se diseñaron como herramientas de procesamiento de transacciones y, hoy en día, el trabajo principal es la optimización de un proceso de toma de decisiones informadas y ponerlo a la disponibilidad de los usuarios de todos los niveles de la jerarquía empresarial. Las tendencias más recientes indican que el acceso a los datos operativos clave ya no es un privilegio de los ejecutivos; actualmente existen muchos ejecutivos de fabricación que permiten (hasta alientan) que el personal del taller y los centros de distribución tenga acceso a los datos de rendimiento operativo, para que puedan tomar decisiones a tiempo.

La mayoría de los datos operativos que se encuentran en los sistemas ERP -y en sus hermanos menores, gestión de la cadena de suministro (SCM) o gestión de las relaciones con los clientes (CRM)- se almacenan en lo que se conoce como un sistema de procesamiento de las transacciones en línea (OLTP), es decir, un tipo de procesamiento informático en el que la computadora responde inmediatamente a las solicitudes de los usuarios. Este sistema considera que cada solicitud es una transacción, o un registro computarizado de un evento discreto, como una recepción de inventario o una orden de venta. En otras palabras, una transacción debe tener un conjunto de dos o más actualizaciones a la base de datos, que deben terminarse en un modo de “todo o nada”. El procesamiento por lotes es lo opuesto a OLTP; en él, se almacena un lote de solicitudes para ejecutarlas todas al mismo tiempo. Es decir que para procesar las transacciones es necesario tener una interacción con el usuario, mientras que el procesamiento por lotes puede suceder sin que el usuario esté presente. De cualquier forma, ambos enfoques producen un gran número de registros en la base de datos.

Recordemos que una base de datos es un conjunto de datos estructurados que es independiente de la aplicación. Este enfoque de gestión de archivos por procesamiento de datos se diseñó para definir la independencia de los programas de cómputo y los archivos de datos, minimizar la redundancia, y en donde se pueden agregar a, cambiar o borrar los elementos de los datos de la estructura de archivos sin cambiar los programas de las aplicaciones existentes.

Actualmente, las bases de datos relacionales se utilizan más en las aplicaciones empresariales. Una base de datos relacional es un programa de software que permite que los usuarios obtengan información proveniente de dos o más bases de datos formadas por grupos de datos bidimensionales (tablas). Por el contrario, una base de datos jerárquica es un método de construcción de bases de datos en el que todos los tipos de registros estén enlazados en estructuras de árbol. En este caso, ningún registro hijo puede tener más de un registro padre físico.

Las bases de datos relacionales son más poderosas que las demás, ya que no necesitan muchas suposiciones acerca de cómo relacionar los datos o cómo extraerlos de la base de datos. Así, es posible visualizar una misma base de datos de varias formas. Otra característica importante es que una sola base de datos puede abarcar varias tablas, a diferencia de, por ejemplo, bases de datos de archivos planos, en donde cada base de datos está contenida en una sola tabla. Por consiguiente, las bases de datos relacionales son las que más se utilizan dentro de las aplicaciones empresariales.

Los sistemas de gestión de bases de datos (DBMS) se agrupan con estas bases de datos. Los DBMS acceden a los datos que están almacenados en una base de datos y dan a los usuarios finales y los programadores de aplicaciones varias visualizaciones de los datos. Son un conjunto de programas que están diseñados para organizar datos y proporcionar el mecanismo para almacenar, mantener o modificar y buscar o extraer datos de la base de datos. Un DBMS separa los datos de los programas de aplicación y la gente que los utiliza, además de que permiten tener varias visualizaciones de los datos.

Desde el punto de vista técnico, los DBMS pueden ser muy distintos, ya que se usan términos como relacional, red, plano y jerárquico para referirse a la forma en que el sistema organiza la información de forma interna, y esto puede afectar la rapidez y la flexibilidad con que los usuarios pueden extraer la información. Por ejemplo, un sistema de gestión de bases de datos relacionales (RDBMS) es un tipo de DBMS que almacena los datos en forma de tablas relacionadas, cuya arquitectura tiene base en un método formal de construcción de una base de datos en filas y columnas, usando reglas que tienen pruebas matemáticas formales. En estos sistemas, que se originaron con el trabajo de EF Codd, las relaciones entre los archivos se crean comparando los datos, como números de cuenta y nombres. Además, un RDBMS tiene la flexibilidad para tomar dos o más archivos y generar uno nuevo a partir de los registros que cumplen con los criterios de correspondencia.

Las solicitudes de información de una base de datos se hacen en forma de consultas, o preguntas estilizadas. Por ejemplo, una consulta solicitaría todos los registros en que el campo “NOMBRE” es “LÓPEZ” y el campo “EDAD” es “mayor que 32”. El conjunto de reglas de construcción de consultas se conoce como lenguaje de consulta, y los distintos DBMS soportan distintos lenguajes, aunque existe uno seminormalizado, llamado lenguaje estructurado de consulta o SQL. SQL es un lenguaje de consulta normalizado para bases de datos relacionales de modelos y que permite solicitar información de la base de datos.

Este lenguaje tiene un vocabulario en inglés, no tiene procedimientos y permite definir tablas, organizaciones de las pantallas e índices, que, en diseño de bases de datos, son listas de claves o palabras clave de las cuales, cada una identifica un registro único. Los índices facilitan la búsqueda de registros específicos y la organización de registros por campo de índice, que es el campo que se usa para identificar cada registro. Históricamente, SQL ha sido el lenguaje de consulta favorito de los DBMS que funcionan en minicomputadoras y unidades centrales.

Sin embargo, SQL cada vez tiene más soporte de los sistemas de bases de datos para computadoras personales (PC), ya que soporta las bases de datos distribuidas (bases de datos que abarcan varios sistemas informáticos), lo que permite que varios usuarios de una red de área local (LAN) accedan simultáneamente a la misma base de datos. Estos sofisticados lenguajes de gestión de sistemas de bases de datos se conocen como lenguajes de cuarta generación (4GL), y son lenguajes de programación que se acercan más a los lenguajes humanos que los lenguajes de programación de procedimientos de alto nivel, como COBOL o C++.

La información de una base de datos puede presentarse en varios formatos, ya que los DBMS contienen un programa de redacción de reportes que permite que los usuarios produzcan datos en forma de reporte. Otros DBMS también incluyen un componente de gráficas para que los usuarios produzcan información en forma de gráficas y tablas. Sin embargo, estos programas de redacción de reportes normalmente no son fáciles de usar para los usuarios normales de software empresarial y no los pueden aprovechar como se debe. Además, para la mayoría de los sistemas de software empresarial, los reportes son un objetivo secundario y no un factor determinante del diseño original del sistema. Por el contrario, estos sistemas están diseñados específicamente para niveles altos de volumen de transacciones, con muchos usuarios concurrentes.

Si una base de datos es relacional, es muy probable que haya sido “normalizada” (el proceso de organización de datos de acuerdo a las reglas de una base de datos relacional). Aunque es menos probable, si la base de datos no es relacional, entonces hay que escribir programas que almacenen y busquen datos de la base de datos (que se puede lograr usando el lenguaje de programación COBOL).

Ya sea que la base de datos sea o no relacional, el diseño que hace que un OLTP sea eficiente para el procesamiento de las transacciones lo vuelve ineficiente para las consultas de los usuarios. En la década de los ochenta, muchos usuarios se referían a sus unidades centrales como “el agujero negro”, ya que toda la información entraba en ellas, pero no podía salir. Todas las solicitudes de reportes debían ser programadas por el personal de tecnología de la información (TI), mientras que sólo era posible generar reportes “predefinidos” de acuerdo a un programa, y las consultas ad hoc en tiempo real eran prácticamente imposibles. Los sistemas ERP por cliente/servidor de los noventa tienen más opciones de generación de reportes, pero siguen estando lejos de la capacidad de uso que desean los usuarios finales normales, no técnicos, para cosas como generación de reportes operativos, análisis interactivo, etc.

El almacenamiento de datos y los analíticos

Para resolver estos problemas, se creó la idea de almacenamiento de datos, que es un conjunto de datos diseñado para soportar la toma de decisiones de gestión. Los almacenes de datos contienen una gran variedad de datos que pintan un panorama coherente de las condiciones del negocio en un momento específico. La teoría era crear una infraestructura de bases de datos que estuviera en línea constantemente y que contuviera toda la información de los sistemas OLTP, incluyendo los datos históricos, pero que tuviera un estructura que le diera rapidez y eficiencia para las consultas.

En general, un esquema es la estructura de un sistema de bases de datos, descrito en un lenguaje formal (aunque el término también se usa para referirse a una imagen gráfica de la estructura de bases de datos) y soportado por el DBMS. Por ejemplo, en una base de datos relacional, el esquema define las tablas, los campos de cada tabla y las relaciones entre estos campos y estas tablas. Normalmente, los esquemas se almacenan en un diccionario de datos, que es un archivo en un DBMS que define la organización básica de una base de datos. Contiene una lista de todos los archivos de la base de datos, el número de registros en cada archivo y los nombres y los tipos de cada campo. Los diccionarios de datos no contienen datos reales de la base de datos, únicamente la información de contabilidad que permite administrarlos. Sin embargo, sin un diccionario de datos, un DBMS no puede acceder a los datos de la base de datos. Por otro lado, la mayoría de los DBMS esconden el diccionario de datos a los usuarios, con el fin de que no destruyan su contenido accidentalmente, ya que el diccionario de datos afecta todos los datos de una empresa y explica cosas como, de dónde provienen los datos, cómo se crearon, cómo operan, dónde residen, quién los usa, etc.

El esquema más común (diseños de bases de datos lógicas y físicas) que aprovecha el almacenamiento de datos se conoce como esquema en estrella, y consta de hechos (hechos reales del negocio) y dimensiones (formas de ver los hechos). Una forma simple de ver un esquema de datos es que está diseñado de forma que puede derivarse una cantidad máxima de información del menor número de lecturas de la tabla. Otra forma para reducir la cantidad de datos que se lee es predefinir acumulaciones (resúmenes de datos detallados, como total de ventas mensuales) dentro de la estrella, ya que la mayoría de las consultas hacen preguntas como “¿cuántos artilugios se vendieron el mes pasado?"

Así, un almacén de datos sería una base de datos especial o un depósito de datos que se prepara especialmente para soportar las aplicaciones de toma de decisiones para consulta y análisis, y no una base de datos para procesar las transacciones (para mayor información, consulte A Definition of Data Warehousing). El hecho de separar estas dos funciones ha mejorado la flexibilidad y el desempeño, permitiendo que el desarrollo de un almacén de datos incluya el desarrollo de sistemas para extraer datos de los sistemas operativos de transacciones subyacentes. El almacén de datos también instala un sistema de bases de datos del almacén que da a los gerentes un acceso flexible a los datos. El término almacenamiento de datos normalmente se refiere a la combinación de varias bases de datos distintas en una empresa. Contrasta con el data mart, que es una base de datos o un conjunto de bases de datos, diseñado para ayudar a que los gerentes tomen decisiones estratégicas para sus negocios. El almacén de datos combina bases de datos en toda la empresa, mientras que los data marts son más pequeños y se enfocan en un tema o un departamento específico. Sin embargo, algunos data marts, llamados data marts departamentales, pueden ser subconjuntos de almacenes de datos más grandes.

Con esto llegamos al procesamiento analítico en línea (OLAP), que es una categoría de herramientas de software que permiten analizar los datos almacenados en una base de datos y que permiten que los usuarios analicen distintas dimensiones de los datos, como series de tiempo y visualizaciones del análisis de las tendencias. Por lo tanto, los usuarios del negocio pueden identificar rápida y fácilmente las tendencias de desempeño mediante el análisis por tiempo de la información y las capacidades de creación de gráficas de los productos, que soportan un análisis más sofisticado de los datos y tienen capacidades completas de los campos calculados, que se integran a los reportes. Por ejemplo, los usuarios pueden aislar e identificar los productos, los clientes, las regiones u otras áreas que tengan tendencias ascendentes o descendentes. Algunas soluciones también contendrán una función integrada y poderosa de creación de gráficas de los datos que permite que los usuarios creen visualizaciones detalladas de los mismos. Idealmente, la capacidad de creación de gráficas debe ser completamente dinámica. En otras palabras, los usuarios deben poder navegar rápidamente a través de varios parámetros de los reportes y ver las representaciones gráficas de cada combinación.

Con frecuencia, el OLAP se usa en la extracción de datos, que es un tipo de aplicación de base de datos que busca los patrones escondidos en un grupo de datos y que pueden usarse para predecir su comportamiento en el futuro. Por ejemplo, puede ayudar a las empresas que venden al por menor a buscar los clientes que tengan los mismos intereses. Pero el término se utiliza incorrectamente para describir software que presenta los datos en formas nuevas, ya que el software verdadero de extracción de datos no sólo cambia la presentación, sino que realmente descubre relaciones antes desconocidas entre los datos, y aplica este conocimiento para lograr ciertos objetivos del negocio. Estas herramientas se usan para reemplazar o mejorar la inteligencia humana, analizando almacenes masivos de datos con el fin de descubrir correlaciones nuevas y significativas, patrones y tendencias, por medio de tecnologías de reconocimiento de patrones y estadísticas. Así, es popular en los campos científico y matemático, pero también lo están usando cada vez más los comerciantes que tratan de obtener datos útiles de los consumidores mediante sus sitios web.

El análisis predictivo, que va más allá, es extracción de datos que utiliza reconocimiento de patrones y técnicas matemáticas y estadísticas en grandes cantidades de datos para soportar la toma de decisiones mediante el pronóstico de los resultados de distintas situaciones. Estos programas utilizan técnicas como redes neurales y árboles de decisiones para realizar búsquedas en las bases de datos, buscar las correlaciones y los patrones que los humanos no pueden detectar y presentar la información que ayudará que la gerencia tome las decisiones corporativas correctas.

El SAS Institute, que es al vendedor puro de BI más grande (y la empresa privada de software más grande, con ingresos anuales de 1,500 millones de dólares), ha sido el líder en esta área. Ha podido aprender del pasado, manejar el presente y predecir el futuro, además de que permite que todos los componentes de la empresa tengan acceso a esta inteligencia. Aún un proveedor de ERP relativamente pequeño, Relevant Business System, desarrolló hace poco una herramienta de software BI, el Business Wizard with Predictive Analytics, que puede recorrer grandes cantidades de datos de un sistema ERP y ayudar a los encargados de la toma de decisiones a escoger entre las distintas alternativas que son difíciles de comparar en tiempo casi real.

El componente principal de OLAP es el servidor OLAP, que se encuentra entre un cliente y una interfaz de usuario (IU) y un DBMS. Comprende cómo se organizan los datos en la base de datos y tiene funciones especiales para analizarlos. Existen servidores OLAP que están disponibles para la mayoría de los sistemas de bases de datos comerciales. En los noventa, los sistemas OLAP podían realizar análisis multidimensional, gracias a cálculos construidos previamente, llamados cubos, que proporcionaban gran parte de la funcionalidad analítica disponible.

Sin embargo, estos primeros sistemas OLAP podían ser costosos, además de que los cubos tenían demasiados recursos que afectaban el desempeño del sistema. Por consiguiente, las herramientas analíticas de extremo inferior tenían precios más razonables pero tenían una flexibilidad limitada, mientras que los productos BI de extremo superior que ofrecían empresas como Cognos, Business Objects o Hyperion Solutions eran caros y complicados. Actualmente, muchas soluciones tienen precios más abordables, requieren menos recursos y tienen características intuitivas y point-and-click que permiten que los usuarios del negocio analicen la información de forma dinámica desde varias perspectivas. Los usuarios pueden realizar análisis multidimensionales, conjuntos de datos “slice-and-dice” y pueden ver los detalles adicionales, gracias a la tecnología OLAP integrada, cuya funcionalidad analítica debe estar disponible cuando los usuarios estén conectados a la Internet, mediante un celular o cuando estén trabajando fuera de línea.

El almacenamiento de datos también llevó al desarrollo del concepto de gestión de los meta datos. Los meta datos son datos acerca de los datos, como los nombres de las tablas y las columnas y los tipos de datos. La gestión de los meta datos permite comprender las relaciones que existen entre los elementos de los datos y ayuda a mapear la fuente a los campos objetivo. Los meta datos describen cómo, cuándo y quién reunió un conjunto de datos y cómo se les dio formato. Esto es esencial para comprender la información que está almacenada en los almacenes de datos, además de que se ha vuelto cada vez más importante para la creación de aplicaciones web basadas en lenguaje extensible de marcas (XML) y servicios web (para mayor información, consulte Metadata Standards in the Marketplace).

Con la llegada de los almacenes de datos vino la creación de las herramientas de extracción, transformación y carga (ETL), que usaban los meta datos para obtener información de los sistemas de fuentes y llevarla a almacén de datos. Como su nombre lo indica, las tres funciones para las bases de datos que reúne una herramienta ETL para obtener los datos de una base de datos y colocarlos en otra se llaman:

  1. Extracción: es el proceso de lectura de los datos de la base de datos.

  2. Transformación: es el proceso de conversión de los datos extraídos de su forma anterior a otra forma que pueda ser colocada en otra base de datos. La transformación se realiza por medio de reglas o tablas de búsqueda, o combinando unos datos con otros.

  3. Carga: es el proceso de escritura de los datos en la base de datos objetivo o el almacén de datos.

Así, las herramientas ETL se usan para migrar los datos de una base a otra, para formar data marts y almacenes de datos o para convertir bases de datos de un formato o un tipo a otro. También se desarrollaron herramientas adicionales, que usan SQL, para dar a los usuarios finales acceso directo a los datos del almacén de datos. Con el tiempo, estas herramientas de consulta se volvieron más fáciles, y ahora muchas de ellas tienen un parser (un programa que disecciona el código fuente para que pueda ser traducido a código de objetos) que puede convertir las preguntas hechas en inglés en comandos SQL.

Con esto concluye la primera de siete partes que conforman esta nota.

La segunda parte detallará las herramientas BI contemporáneas; la tercera explorará lo que está disponible; la cuarta describirá el panorama del mercado de BI/CPM; la quinta hablará de los vendedores Geac y Point Solution; la sexta comparará el acceso directo al almacén de datos en el mercado medio y la séptima dará recomendaciones a los usuarios.

Acerca de los autores

Olin Thompson es director de Process ERP Partners. Cuenta con más de 25 años de experiencia como ejecutivo en la industria de software. Se le conoce como “el padre del ERP de procesos” y escribe y da conferencias sobre temas de obtención de valor a partir de ERP, SCP, e-commerce y el impacto de la tecnología en la industria.

Se le puede encontrar en Olin@ProcessERP.com

Predrag Jakovljevic es director de investigación de TechnologyEvaluation.com (TEC) y se enfoca en el mercado de aplicaciones empresariales. Cuenta con cerca de 20 años de experiencia en la industria de la fabricación, incluyendo varios años como usuario privilegiado de TI/ERP. También ha trabajado como consultor/implementador y analista del mercado. Tiene un título en ingeniería mecánica de la Universidad de Belgrado, en Yugoslavia y la certificación en gestión de la producción y el inventario (CIRM) de APICS.

 
comments powered by Disqus

Búsquedas recientes:
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z Others