jueves, 30 de noviembre de 2017

10 tendencias de Inteligencias de Negocios para 2018

La inteligencia de negocios, así como prácticamente todo lo que nos rodea, evoluciona y se perfecciona conforme van apareciendo nuevas herramientas que permiten optimizar su servicio y alcance. Es claro que lo que hoy funciona, puede requerir cambios el día de mañana.

El flujo de información que se maneja en la actualidad llega a presentar tintes infinitos, su papel en los mercados actuales es clave y protagonista, convirtiéndose en el baluarte de las empresas que, sin importar el tamaño o la experiencia que presentan dentro del mercado, reconocen la importancia de sus datos para el crecimiento soñado.

La empresa Tableau realizó un estudio a través de entrevista a miembros del persona y cliente, para identificar las 10 tendencias que están teniendo mayor impacto en materia de Inteligencia de Negocios, y las cuales tomarán fuerza en 2018, estas tendencias destacan las prioridades estratégicas que podrían ayudar a organizaciones a llegar al siguiente nivel.


1-. Aprendizaje automático (machine learning)
Imagina que se requiere conocer información relevante sobre tus clientes, el impacto que tienen sobre tus ingresos, la cantidad de servicios que compran, cuáles son los favoritos, etc. Antes está información tardaba mucho tiempo en ser recabada, pero esto no era la peor condicionante de los antiguos métodos de control y análisis, sino que a pesar de la tardanza no se conocía con certeza que la información recabada fuera fidedigna y segura.

En la actualidad, gracias a estas herramientas, el aprendizaje automático puede aligerar las tareas de los analistas a segundos, pero, sobre todo, dar certeza de que los datos recabados son inequívocos y pueden ser utilizados para la toma de decisiones estratégicas.

Uno de los beneficios de este aprendizaje es que aminora los errores humanos. El analista se olvida de hacer cálculos matemáticos que, debido a la cantidad de datos, pueden someterse a errores que quitan credibilidad a los resultados y pueden causar grandes daños.

Si bien, hemos comentado que el aprendizaje automático es sumamente benéfico para el analista, éste debe conocer las métricas de éxito de los datos para poder actuar. Es decir, se debe quitar de la mente el pensamiento de que la información será clara y definitiva, el ser humano es el único capaz de comprender la información, por lo que siempre se debe tener un contexto y una meta. No pueden trabajar de forma aislada, tanto el aprendizaje como el analista, deben trabajar de la mano para lograr el cometido.

2-. Humanidades
Muchos podrían creer que la gran labor del análisis de datos le corresponde a un experto en TI debido a la naturaleza de la práctica y las características de la misma, sin embargo, la realidad es otra y tiene como protagonistas a otra área del saber.

Las humanidades y la narración de historias han influido sobre el sector de análisis de datos y se han apoderado de los aspectos técnicos de la creación de dashboards analíticos. Antes, esto era impensable, las compañías contrataban profesionales de TI o usuarios avanzados. Hoy, la realidad es otra, se le da mayor importancia a las personas que son capaces de usar los datos y la información para promover cambios y propiciar la transformación mediante el arte, comunicación y persuasión.

“Crear un dashboard y realizar análisis requiere cierta habilidad, pero es algo que no se puede enseñar. Realmente consiste en contar una historia con los datos” Jenny Richards, Artista de datos de Tableau.

3-. Procesamiento de lenguaje natural
Otra tendencia que el 2018 traerá consigo es el procesamiento de lenguaje natural, el cual será más prevalente, sofisticado y extendido. Esta área es fuertemente trabajada por ingenieros y desarrolladores pues, así como se integrará a la Inteligencia de Negocios, también lo hará en otros nuevos sectores.

El procesamiento de lenguaje natural se implementará de la misma forma que Alexa o Siri lo hacen, la idea es que cualquier persona pueda realizarle preguntas y solicitar diversos análisis. Para el año 2020, el 50% de las consultas analíticas se generarán mediante búsqueda, procesamiento de lenguaje natural o voz, según un estudio realizado por Gartner.

Se busca entonces que el Director Ejecutivo que esté afuera de la oficina pueda solicitar información rápida desde su dispositivo móvil; ¿Cuál es el valor del ticket promedio? ¿Cuáles son los productos más vendidos? ¿Quién vendió y qué vendió? ¿Cómo está el inventario contra las ventas? ¿Cuántos días de inventario me quedan según las ventas proyectadas?

Esta tendencia permitirá realizar diversos tipos de preguntas sobre los datos que las diferentes plataformas de la compañía albergan y recibir respuestas relevantes de forma rápida. De esta forma, la información recabada ayudará a una mejor toma de decisiones.

4-. Multiplicidad
Esta es una tendencia que tomará gran fuerza en 2018 así que, en caso de estar pensando en una estrategia de varias nubes para tu compañía, puedes estar planeando bien.

Según un estudio reciente de Gartner, “el 70 % de las empresas elegirá una estrategia de varias nubes hacia 2019, a diferencia del 10 % actual”. Debido a la demanda de datos y por cuestiones de seguridad, las empresas rechazan cada vez más la idea de limitarse a una sola solución de software.
Evaluar la idea de implementar un entorno de varias nubes puede ayudar a conocer qué proveedor ofrece el mayor rendimiento y compatibilidad para la situación específica de la empresa. Así como esta, otra ventaja es la flexibilidad que se gana al implementar el uso de varias nubes, sin embargo, también es importante mencionar las desventajas de esta estrategia, las cuales se resumen en: aumento de gastos generales, estudio e investigación de las distintas plataformas para la implementación de procesos de gobernanza adicionales.

La mayoría de las empresas que lo ha implementado a la fecha, han mencionado que lo hacen a modo de respaldo en caso de que el principal entorno no funciones o presente errores.

5-. Director de Datos
Esta nueva gobernanza de datos ha generado cambios radicales en las organizaciones. Como lo hemos explicado en otros puntos, los puestos de trabajo han sido uno de ellos, pues en pro de conseguir el mejor perfil que lea y analice los datos de la forma esperada se están creando nuevas áreas internas. El Director de Tecnologías de la Información eran responsables de la mayoría de las tareas correspondientes a la Inteligencia de Negocios, pues era el que supervisaba, estandarizaba y consolidaba los activos de datos.

Esto parecía lógico debido a la naturaleza de ambas áreas, sin embargo, las iniciativas de BI competían con otras iniciativas estratégicas como la arquitectura de TI, seguridad de sistemas, etc. Lo que por momentos reducía el éxito y el impacto de la Inteligencia de Negocios.

En la actualidad, más compañías incluyeron en su estructura organizacional el puesto de Director de Datos. Esta persona debe hacerse responsable de la creación de una cultura de análisis, modificar los procesos empresariales, superar obstáculos culturales y, sobre todo, comunicar la importancia del valor de análisis a lo largo y ancho de la organización. Con este nuevo puesto, el Director de TI se encarga de un tema vital; la seguridad de datos.

6-. Participación
Si bien la tarea de análisis de datos debe ser asignada a un grupo de personas o una persona en especial, es importante mencionar que para poder obtener información confiable es importante trabajar con datos gobernados, es decir, enseñar al resto de la organización a usar los datos en diferentes situaciones para de esta forma optimizar los modelos y ganar fuerza.

La BI moderna incluye modelos de gobernanza en donde los encargados de TI e ingenieros de datos ajustan y preparan fuentes confiables para, de esta forma, favorecer al autoservicio y libertad de exploración.

Los procesos verticales controlados por el departamento de TI serán reemplazados por un proceso de desarrollo colaborativo que combine el talento de los profesionales de TI con el de los usuarios finales. Todos ellos identificarán los datos más importantes para gobernar y crear reglas y procesos que maximicen el valor empresarial del análisis sin resignar seguridad.

 “La clave de la actualidad consiste en aplicar la sabiduría colectiva para proporcionar datos correctos a las personas adecuadas y así evitar que accedan a ellos las personas indebidas” Ellie Fields, Directora de desarrollo sénior de Tableau.

7-. Seguridad
Las amenazas a las cuales se exponen las organizaciones es abrumadora, las brechas de seguridad día con día son más vulnerables debido a la gran habilidad de los hackers. Recientemente, hemos sido testigos de fuertes ataques cibernéticos, lo que sin duda provoca nerviosismo en el interior de las compañías, pues un ataque puede ser devastador y causar daños irreparables. 

A esto surgen las siguientes preguntas ¿cuánto valen los datos? ¿cómo medir su valor? Doug Laney, Analista de Gartner escribió un libro llamado “Infonomics: How to Monetize, Manage, and Measure Information for Competitive Advantage”. En esta pieza bibliográfica el especialista presenta distintos modelos (financieros y no financieros) con los que las empresas de todos los sectores pueden calcular el valor de sus datos.

Los modelos no financieros se centran en el valor intrínseco, el valor del negocio y el valor del rendimiento de los datos. De esa forma se puede medir la singularidad, precisión, relevancia y eficacia del uso de estos modelos. Por su parte, los modelos financieros ofrecen el valor del costo, valor económico y valor del mercado de los datos, lo que permite medir el costo de adquirir datos, administrarlos de manera interna y venderlos.

8-. Ingeniero de datos
Existe una fórmula que dice que no se puede tener una fuente de datos confiable, sin haber entendido qué datos se han introducido y cómo sacarlos del sistema. Bajo este principio podemos decir que el papel de los ingenieros de datos seguirá siendo fundamental para el uso de datos. En 2017 había más de 2,500 puestos con las palabras “ingeniero de datos” en LinkedIn.

La importancia de este puesto radica en la responsabilidad del diseño, creación y administración de la base de datos de análisis y operaciones de la empresa. Esta persona es la encargada de extraer datos de los sistemas básicos de la organización de forma que éstos pueden utilizarse y aprovecharse para obtener información.

Como se lee, la labor del ingeniero de datos es vital y crítica, por lo que requiere de una serie de conocimiento que le permitan cumplir con su responsabilidad; comprender el back-end, qué contienen los datos y de qué manera pueden ser utilizados por el empleado.

9-. Ubicación
Existe una tendencia que ha sido parte importante en la creación de diversas tendencias mundiales, el Internet de las Cosas ha ocasionado un crecimiento desmedido en el número de dispositivos conectados, los cuales tienen la capacidad de interacción y recopilación datos de cada conexión lo que ofrece una mejor experiencia.

IoT apenas comienza, según Gartner en el año 2020 el número de dispositivos conectados con esta tecnología será más del doble del actual. Se estima un total de 20,400 millones de dispositivos en línea.

¿Cómo el IoT influye en las tendencias de Inteligencia de Negocios? Sencillo, gracias a la ubicación.  Existe una tendencia que consiste en el uso de datos de ubicación de estos dispositivos denominada “ubicación de las cosas”, la cual permite a detectar y comunicar la ubicación geográfica. La importancia de este uso radica en que cuando se conoce la ubicación de un dispositivo, es posible agregar un contexto, comprender la situación y predecir lo que sucederá en ese lugar.

Gracias a esto, los analistas pueden incorporar estos datos en el análisis para comprender de mejor forma qué es lo que sucede y dónde sucede.

10-. Sector académico
Dado a su popularidad e importancia dentro de los mercados actuales, las universidades no se quieren quedar atrás y redoblan esfuerzos en la creación de programas de análisis y ciencia de los datos.

La Universidad Estatal de Carolina del Norte es la una de las primeras casas de estudio que ya cuenta con un primer programa de maestría en análisis científico. La MSA tiene como finalidad “formar a los mejores profesionales del análisis de todo el mundo: personas que dominen herramientas y métodos complejos para el modelado de datos a gran escala, y que sientan pasión por resolver problemas que representen retos”

Las Universidades de California; Berkley, David y Santa Cruz ya dieron el paso y ampliaron las opciones de análisis y ciencia de los datos, mientras que la Universidad de San Diego inauguró una especialidad y una asignatura secundaria de grado universitario en ciencia de datos.


Según un estudio realizado por PwC, en el 2021, el 69% de los empleadores exigirá que los postulantes a sus diversos puestos de trabajo presenten conocimientos de análisis y ciencia de los datos.  Las habilidades técnicas ya no son optativas, en 2018 se comenzará a instaurar metodología rigurosa a fin de garantizar que los estudiantes adquieran los conocimientos necesarios para incluirse en el mercado laboral moderno. 

Te recomendamos