Explorar >   IBM PartnerWorld
 |  |  |  |  | 
Traducción
中文(简体)中文(漢字)EnglishFrançaisItaliano日本語한국어PortuguêsРусскийEspañol
por Transposh - Plugin de traducción para WordPress

Un widget de traducción se proporciona para que su conveniencia facilitar la traducción de la versión en Inglés de este blog en varios idiomas. Si usted decide utilizar este servicio de traducción automática, por favor, entienda que puede haber desviaciones entre la traducción automática y la versión original en inglés. IBM no es responsable de tales desviaciones de traducción automática y ofrece la versión traducida "COMO ES" sin garantías de ningún tipo.

ANALYTICS Generación de demanda Infraestructura En todo el mundo

La respuesta al desafío de grandes volúmenes de datos

La respuesta al desafío de grandes volúmenes de datos

La construcción de un escalable, cúmulo de datos de alto rendimiento para servir análisis de datos grandes

proyectos de análisis de datos grandes comienzan inevitablemente con grandes esperanzas y grandes planes. Primeros pasos con Hadoop y Spark es sencillo. proyectos piloto comienzan con herramientas de código abierto, datos de la muestra y un objetivo modesto. el éxito del piloto podría ser una visión única de los datos previamente independiente que permite la presentación de informes de extremo a extremo de un cliente o un proceso. Y luego comienza la diversión. datos reales. informes periódicos. Escala de la agrupación.

El eslabón más débil y la cuestión es más fácil de dirección de almacenamiento. El almacenamiento de datos de código abierto por defecto, Hadoop Distributed File System (HDFS), no fue diseñado para la empresa. Por ejemplo, los datos de las organizaciones desean analizar es casi siempre de otras fuentes. Puede tener la información del cliente que necesita ser asegurado y controlado de acceso. Inevitablemente, otras aplicaciones o usuarios también quieren usar los mismos datos que el gran cúmulo de datos utilizando archivo u objeto de interfaces estándar de la industria.

La solución es construir una escalable, cúmulo de datos de alto rendimiento para servir análisis de grandes volúmenes de datos que también es compatible con los protocolos estándar de la industria. Con soporte completo HDFS y el rendimiento escalable del sistema de archivos que lleva en paralelo, Servidor IBM elástico de almacenamiento (ESS) 5.2 es el bloque de construcción ideal para los grandes de almacenamiento de análisis de datos. construido con Escala de IBM Espectro, el conector HDFS-transparente permite código abierto Hadoop y la chispa marcos para funcionar sin ninguna modificación. En realidad, Hortonworks recientemente papel certificado por IBM Escala de espectro en toda su cartera.

El verdadero desafío para los Business Partners de IBM será la construcción del modelo comercial para ESS 5.2 y la Escala de IBM espectro con los tres principales partes interesadas en un proyecto de análisis de datos grandes.

El científico de datos en el equipo piloto núcleo resistirá cualquier divergencia con respecto a las opciones de código abierto porque él o ella teme que la solución no funcionará como las escalas de racimo. Demostrado en cúmulos masivos, el sistema de archivos paralelo Escala de IBM elimina el espectro cuellos de botella de datos comunes a otras soluciones. Se puede superar a HDFS en muchos puntos de referencia. Sin embargo, es la eliminación de la transformación la captación de datos y la extracción de tiempo que va a acelerar en gran medida el tiempo de penetración y convencer a los datos científicos a buscar realmente en la Escala de espectro IBM y ESS.

Para el departamento de TI que debe ser compatible con el medio ambiente, la elección de ESS puede reducir tanto los gastos de capital y los gastos operativos de la de la solución. Debido ESS utiliza una avanzada codificación de borrado de distribuir y proteger los datos, almacenamiento de datos ESS requiere sólo alrededor 22 por ciento de almacenamiento más físico que los datos. A diferencia de, HDFS utiliza de tres vías de replicación 300 por ciento de los datos analizados. Además, ESS está diseñado para poder sobrevivir múltiples fallos e integridad de datos segura. rutas de datos redundantes y las sumas de comprobación de extremo a extremo hacen que la mayoría de los temas estrictamente una tarea de fondo para reparar, no es una emergencia. La interfaz gráfica de usuario ESS proporciona una visión completa de hardware y software, e integra en IBM control del espectro para una vista de cartera de almacenamiento y tendencias.

El ejecutivo de línea de negocio que patrocina el proyecto probablemente será consciente de la seguridad y la gobernabilidad de los datos y los resultados que el almacenamiento de datos de código abierto no proporciona. El cumplimiento de la privacidad y regulaciones a menudo requiere la capacidad de auditar un fraude, consecuencia del riesgo o cumplimiento de los archivos. Estos son triviales para sistemas IBM Escala Spectrum, que están soportados por IBM Espectro Proteger y la mayoría de las soluciones de copia de seguridad.

Sin embargo, puede ser la visión de futuro de grandes datos de la organización que un ejecutivo se encuentra más convincente. La escala y el espectro de IBM Hadoop conector puede federar múltiples fuentes de datos en una sola vista HDFS. Puede abarcar zonas geográficas para la colaboración global. Más, que puede tier automáticamente a la cinta, en las instalaciones de almacenamiento de objetos o de la nube de verdad archivo y analizar en su sitio.

Escala de IBM Espectro, especialmente el ESS 5.2 todo-flash solución, es una razón perfecta para discutir el plan de trabajo para el análisis de datos grandes con sus clientes. Ellos todavía pueden estar en la fase piloto, pero usted estará listo para ellos cuando se trasladan de caja de arena para la producción. Puede que me haga saber lo que piensas utilizando los comentarios a continuación cuentan.

Doug O'Flaherty
Gerente, Espectro de IBM Soluciones de Marketing

Douglas O'Flaherty lleva los equipos de IBM espectro de soluciones de marketing, que incluye las carteras de IBM e IBM espectro de almacenamiento Espectro Informática. Su formación incluye tanto a las grandes empresas y los arranques y él ha estado con IBM desde 2015. Señor. O'Flaherty es un evangelista de largo plazo para HPC y grandes volúmenes de datos en aplicaciones comerciales.

Relacionados con la Artículos

PUBLICA TUS COMENTARIOS

Su dirección de correo electrónico no será publicado. Campos requeridos están marcados *

Nombre *

Correo electrónico *

Sitio web