Inicio Noticias Big Data: Tomando Grandes Decisiones de Arquitectura

Big Data: Tomando Grandes Decisiones de Arquitectura

Compartir

Al igual que con cualquier iniciativa de TI, es muy importante para una organización alinear las necesidades del negocio y de la tecnología en la elección de invertir en análisis de datos y procesamiento de Big Data. Estamos viendo un aumento en el uso Big Data de los servicios financieros, en torno a los datos de los clientes para explorar nuevos mercados, permitir el desarrollo de productos, mejorar la venta cruzada, proporcionar ofertas específicas y mejorar la atención al cliente. Para muchos de estos casos de uso, en el Big Data las necesidades de captura de datos son continuamente cambiantes e impredecibles. Instituciones de servicios financieros analizan las capacidades de su arquitectura para analizar grandes conjuntos de datos, definiendo las nuevas arquitecturas necesarias. Las organizaciones están evitando mover datos sin procesar directamente a los Datawarehouse.

Para el propósito de este análisis, me voy a centrar en tres grandes arquitecturas clave de datos y varios controladores que son necesarios para tener en cuenta al tomar decisiones para apoyar las necesidades de las empresas y los presupuestos.

Modelos de propiedad

Los modelos de propiedad de tecnología para Big Data tradicionalmente requieren un gasto de capital significativo para el software y hardware que resulta en un mayor costo total de propiedad. Muchas veces las necesidades y riesgos de la gestión de componentes de código abierto, la capa de infraestructura de redes, servidores múltiples, código personalizado, y numerosas copias de datos la hacen ser inviable y poco rentable. Es muy importante hacer un análisis de construir vs comprar, cuando se piensa en la construcción de una plataforma de Big Data. Construir herramientas personalizadas puede parecer una medida de ahorro, pero no siempre es bueno, ya que la compra de tecnología podría salvar incontables horas-hombre y evitar retrasos o abandonado los proyectos de Big Data.

Appliance de Big Data

Un modelo de Appliance de Big Data es una forma efectiva de implementar capacidades a un menor costo de propiedad. Fuera del trabajo para identificar los negocios y los impulsores de rendimiento de TI, la aplicación general se acorta y permite a la empresa centrarse en el modelamiento de datos y el análisis. En oposición a la construcción de un sistema de datos grande desde el principio, los Appliance permiten eliminar el esfuerzo de mucho tiempo de configuración de hardware y componentes de código abierto. Muchas veces el dinero de más y el tiempo que se gasta en conmutadores de red, ancho de banda e infraestructura, hacen que sea más fácil de usar y más rápida la comercialización, lo que la hace aún más atractiva para la empresa. Los Appliance permiten conectar los puntos entre las actividades a través de los canales de banca de consumo para ofrecer mejores promociones y a los clientes del mercado objetivo.

Hadoop, un sistema de código abierto de archivos distribuido, es visto como la piedra angular del tratamiento de Big Data. Hadoop no limita los costos de licencias iniciales para el manejo y procesamiento de grandes volúmenes de datos. Además de que es de código abierto también es agnóstico a los datos, lo que permite flexibilidad para los bancos y las compañías de servicios financieros que buscan obtener conocimientos a partir de fuentes de datos no estructurados, como registros web y redes sociales. Contenido no estructurado como social streams and click streams, son Quick Wins para el Big Data en la banca. Como resultado, estamos viendo un gran número de proveedores de tecnología como IBM, Teradata y Oracle, desarrollar herramientas basadas en el software de análisis de Hadoop, con Appliance para Big Data, que ayudan a las empresas a encontrar valor tanto en los datos estructurados y no estructurados. Mediante la integración de componentes de una plataforma de Big Data con una arquitectura flexible, escalable y compatible de datos, las empresas de servicios financieros y los bancos pueden centrarse en encontrar valor en la información sobre el cliente en forma más rápida.

Con requisitos de almacenamiento y servidor reducidos, crea modelos de Appliance accesible para Big Data. A pesar de reducir al mínimo el almacenamiento empresarial con Hadoop, las empresas aún se enfrentan a problemas en el almacenamiento de Big Data. Errores de disco de almacenamiento en las cajas de los productos básicos y los cortes de nodos pueden ser costosos, requieren más recursos de red y herramientas de monitoreo, y se pueden transformar en prohibitivas en el tiempo y entregar análisis de datos con retrasos. Como se puede ver, es muy importante tener en cuenta todas las opciones de infraestructura a su disposición para la aplicación de Big Data.

Plataformas Big Data en la nube

La nube no tiene por qué ser una mala palabra. Cuando la aplicación de una plataforma basada en la nube de Big Data, las organizaciones se beneficiarán de la utilización de un Investigative Lab Data (IDL). El IDL permite a los usuarios de negocio acceder a los datos en busca de señales en las redes sociales, los datos básicos y los datos no estructurados. Cuando las señales se encuentran puede ser socializados a través de las líneas de negocio, consultados en la nube (ninguna copia de seguridad de la empresa y de recuperación es necesaria), introducidos en el ambiente interno, parced en un almacén de datos y compartida en un modelo de cache o por medio de herramientas de consulta. Tener grandes conjuntos de datos es muy costoso en el tiempo. Al centrarse en la búsqueda de la señal en los datos, los bancos pueden extraer sólo valiosas piezas de datos en el almacén de datos empresariales.

Proveedores como Infochimps son grandes en la implementación en tiempo real, ad-hoc y análisis de lotes a través de una infraestructura de Big Data en la nube. Servicios en la nube y el apoyo de infraestructuras para el uso y análisis de texto de voz del cliente (VOC) o análisis de los sentimientos sin mucha manipulación. Los bancos también pueden aprovechar la nube para el análisis de flujo de clic para buscar palabras clave que se buscaban (interna y externamente).

Como usted puede ver, hay mucho que considerar cuando se toman decisiones de arquitectura para agregar capacidades de Big Data. El panorama de la tecnología sigue evolucionando, también, por lo que es difícil hacer planes para el futuro. Por no hablar, muchos bancos siguen luchando por encontrar valor en los datos existentes. ¿Cómo podemos ayudar? Perficient es experta en condiciones de poner en práctica los programas de gestión de datos y evaluaciones de grandes volúmenes de datos y hojas de ruta para las soluciones tecnológicas impulsadas por las empresas en la industria de servicios financieros.

Fuente: bankinnovation.net